
Es gibt eine seit langem bestehende Theorie, dass Apple eine Funktion, die es seit Jahren bei Android gibt, dem iPhone hinzufügen, ihr einen neuen Namen geben und sie dann als große Innovation anpreisen wird.
Genau das hat Apple während seiner Keynote zur WWDC 2025 getan, als es eine Reihe neuer Funktionen vorstellte, die in Apple Intelligence verfügbar sein werden, wenn später in diesem Jahr ein Software-Update erscheint.
Dreist "kopieren"
Eine Reihe neuer KI-gestützter Funktionen, die das Benutzererlebnis verbessern, wird auf iPhone, iPad, Mac, Apple Watch und Vision Pro verfügbar sein. Die bekannteste davon ist die Live-Übersetzung.
![]() |
Live-Übersetzungsfunktion in FaceTime-Anrufen. Foto: Apple. |
Live Translation wurde entwickelt, um Sprachbarrieren bei der Kommunikation abzubauen und lässt sich in Messaging-, FaceTime- und Telefon-Apps integrieren. Es läuft vollständig auf dem Gerät, um die Privatsphäre der Gespräche zu wahren.
Nachrichten können automatisch während der Eingabe übersetzt werden, und eingehende Antworten werden sofort übersetzt. Bei FaceTime werden Übersetzungen in Live-Untertiteln angezeigt, während die Nutzer die Stimme des Gesprächspartners hören. Auch Telefonanrufe werden in Echtzeit übersetzt.
Tatsächlich handelt es sich hierbei um eine nützliche Funktion, die Samsung mit seinem Galaxy AI eingeführt hat. Die koreanische Marke nennt diese Funktion sogar ähnlich: Live Translate.
Wie bei Apple übersetzt Samsung mit seiner Live Translate-Funktion den Inhalt eines Anrufs in Echtzeit in eine andere Sprache. Dank eines integrierten Sprachmodells und optimierter Hardware erfolgt die Aufzeichnung und Verarbeitung der Inhalte direkt auf dem Gerät, um die Privatsphäre der Nutzer zu gewährleisten.
Darüber hinaus stellte Google die Live-Übersetzungsfunktion auf der I/O 2022 mit dem ersten Bild des in der Entwicklung befindlichen Modells der Augmented-Reality-Brille (AR) vor. Im Video von Google übersetzt das Gerät die Sprache und zeigt sie direkt vor den Augen des Benutzers an.
„Sie können in Echtzeit sehen, was ich sage, quasi als Untertitel“, erklärte ein Google-Sprecher. Im Video ist zu sehen, dass die AR-Brille von Google mit externen Lautsprechern ausgestattet ist und das Design herkömmlichen Modebrillen recht ähnlich ist.
Als Nachzügler muss Apple die inhärenten Schwächen dieser Übersetzungsfunktion überwinden. Insbesondere bei der Verwendung von Live Translate wird es für Benutzer schwierig sein, zu bestimmen, wann sie mit dem Sprechen beginnen und aufhören müssen, damit die KI übersetzen kann.
Als CNET -Reporterin Lisa Eadicicco es auf einem geschäftigen Pariser Markt ausprobierte, fiel es ihr schwer, sich auf das Gespräch zu konzentrieren, da sie sich auf das konzentrieren musste, was auf dem Bildschirm angezeigt wurde. Schließlich kaufte sie die Artikel auf die altmodische Art: mit dem Finger zeigend, gestikulierend und in gebrochenem Französisch beschreibend.
Beantworten oder Abhören von Anrufen im Namen des Benutzers
Als Google 2021 das Pixel 6 und Pixel 6 Pro vorstellte, kündigte es eine sehr nützliche neue Funktion namens „Hold for Me“ an. Ist diese Funktion aktiviert, hört die Pixel-KI zu, wenn jemand den Hörer abnimmt, und benachrichtigt den Nutzer mit einer entsprechenden Meldung, damit das Gespräch fortgesetzt werden kann.
Diese Funktion ist sehr nützlich, da Nutzer bequem andere Dinge erledigen können, ohne ständig zuhören zu müssen, ob jemand am anderen Ende der Leitung wieder am Gespräch teilnimmt. Sobald der Nutzer am anderen Ende der Leitung wieder am Gespräch teilnimmt, benachrichtigt ihn der virtuelle Assistent auf Pixel mit einem Ton.
![]() |
Die Funktion, Anrufe im Namen des Nutzers anzunehmen oder abzuhören, wenn besetzt ist, heißt Hold Assist. Foto: Apple. |
Dies ist eine großartige Funktion, und viele Benutzer haben Apple aufgefordert, sie auf das iPhone zu bringen. Dieser Wunsch wurde wahr, als Apple eine ähnliche Version namens Hold Assist ankündigte.
Laut Apple können Nutzer ihr iPhone in der Warteschleife lassen, während sie sich wieder ihrer Arbeit widmen. Sobald ein Mitarbeiter verfügbar ist, wird der Nutzer benachrichtigt, damit er den Anruf zurückgeben kann.
Schließlich nutzt eine Funktion namens Google Call Screen, die zuvor auf Pixel-Modellen verfügbar war, KI und fordert den Anrufer auf, seinen Namen und den Grund des Anrufs preiszugeben, bevor die Verbindung hergestellt wird.
Apple bietet jetzt eine ähnliche Funktion namens „Anruf-Screening“ an, die Nutzern hilft, Ablenkungen zu vermeiden. Ähnlich wie Google Call Screen sammelt das System Informationen über den Anrufer und stellt dem Nutzer die notwendigen Details zur Verfügung, damit er entscheiden kann, ob er den Anruf entgegennehmen soll oder nicht.
Halteassistent, Live-Übersetzung und Anruffilterung sind allesamt nützliche Funktionen von Android und wurden von vielen iPhone-Benutzern lange erwartet.
Laut PhoneArena- Reporter Alan Friedman zeigt dieses Trio von KI-Funktionen den Unterschied zwischen Google und Apple, wenn es um das Betriebssystem der beiden geht.
Dementsprechend wird Android optimiert, um das Benutzererlebnis zu verbessern. Apple wartet mit der Einführung dieser nützlichen neuen Funktionen und denkt sich dann einen etwas ähnlichen Namen aus.
„Trotzdem freue ich mich, dass Apple diese Funktionen zu iOS hinzufügt und kann es kaum erwarten, sie zu nutzen“, kommentierte Friedman.
Quelle: https://znews.vn/apple-lai-hoc-android-post1559633.html
Kommentar (0)