- Apple erwägt die Verwendung von GPS zur...
Da iOS 17 jetzt verfügbar ist, hat Apple auch ein Firmware-Update für die zweite Generation der AirPods Pro veröffentlicht, das einige neue Funktionen bringt, darunter Adaptive Audio. Die Funktion kombiniert die beiden Modi Transparenz und Geräuschunterdrückung miteinander und gleicht sie je nach äußerer Umgebung aus. Interessanterweise hat Apple einmal in Erwägung gezogen, das GPS des iPhones zur Steuerung der Adaptive Audio-Pegel zu verwenden - was letztendlich nicht geschehen ist.
In einem Interview mit TechCrunch sprachen die Apple-Manager Ron Huang und Eric Treski über die neuen Funktionen der AirPods Pro.
Neben Adaptive Audio bietet die neue Firmware auch Personalized Volume, das die Lautstärke von Medien auf Basis der Umgebungsbedingungen anpasst, und Conversation Awareness, das die Lautstärke von Medien reduziert und Stimmen vor Ihnen verstärkt, wenn Sie zu sprechen beginnen.
Adaptive Audio klingt ähnlich wie Adaptive Transparency, eine Funktion, die letztes Jahr für die AirPods Pro angekündigt wurde. Mit Adaptive Transparency überwachen die Ohrhörer ständig externe Geräusche, um einige störende Geräusche zu reduzieren, selbst wenn der Transparency-Modus aktiviert ist. Adaptive Audio hingegen leistet viel mehr als das.
Treski erklärt, dass der neue Modus langsamer arbeitet als Adaptive Transparency, aber das liegt daran, dass es einen "viel methodischeren Prozess gibt, um zu wissen, was man hört" und das Spektrum zwischen Transparency und Noise Cancellation intelligent anzupassen.
Das System erkennt, ob du einen Song oder einen Podcast hörst, während Mikrofone in den AirPods die Lautstärke in deinen Ohren messen, um ein Gefühl für die Lautstärke zu bekommen, die der Nutzer empfindet. Bei der Entwicklung dieser Funktion versuchte Apple jedoch einen völlig anderen Ansatz.
Anstatt sich auf Mikrofone und andere Sensoren zu verlassen, zog Apple in Erwägung, das GPS des iPhones zu nutzen, um festzustellen, wann sich der Nutzer an einem lauten Ort befindet, um die adaptiven Audiopegel anzupassen. So würden die AirPods zum Beispiel automatisch in den Transparenzmodus wechseln, wenn der Nutzer auf der Straße geht.
"Während der frühen Erforschung von Adaptive Audio haben wir grundsätzlich zwischen ANC und Transparenz unterschieden, je nachdem, wo man sich befindet", erklärt Huang. "Sie können sich vorstellen, dass das Telefon einen Hinweis an die AirPods geben kann und sagt: "Hey, du bist im Haus" und so weiter."
"Nach allem, was wir gelernt haben, glauben wir nicht, dass das der richtige Weg ist, und so haben wir es auch nicht gemacht. Natürlich ist Ihr Haus nicht immer ruhig und die Straßen sind nicht immer laut. Wir haben uns dafür entschieden, dass die AirPods die Umgebung in Echtzeit überwachen und selbständig intelligente Entscheidungen treffen, anstatt sich auf einen Standort-Hinweis des Telefons zu verlassen", fügte er hinzu.
Was die Gesprächserkennung betrifft, so wartet die Funktion nicht nur, bis sie eine vorherrschende Stimme erkennt, sondern nutzt auch Beschleunigungssensoren, um Kieferbewegungen zu erkennen, um sicherzustellen, dass der Nutzer spricht und nicht jemand anderes in der Nähe.
Das vollständige Interview enthält einige weitere Details, wie z. B. die Bestätigung der Apple-Führungskräfte, dass die überarbeitete Version der zweiten Generation der AirPods Pro mit USB-C ein neues 5-GHz-Wireless-Protokoll verwendet , um Lossless Audio zu übertragen, wenn sie mit einem Apple Vision Pro gekoppelt ist.
Wie Adaptive Audio in den AirPods Pro 2 funktioniert
In einem Interview mit TechCrunch sprachen die Apple-Manager Ron Huang und Eric Treski über die neuen Funktionen der AirPods Pro.
Neben Adaptive Audio bietet die neue Firmware auch Personalized Volume, das die Lautstärke von Medien auf Basis der Umgebungsbedingungen anpasst, und Conversation Awareness, das die Lautstärke von Medien reduziert und Stimmen vor Ihnen verstärkt, wenn Sie zu sprechen beginnen.
Adaptive Audio klingt ähnlich wie Adaptive Transparency, eine Funktion, die letztes Jahr für die AirPods Pro angekündigt wurde. Mit Adaptive Transparency überwachen die Ohrhörer ständig externe Geräusche, um einige störende Geräusche zu reduzieren, selbst wenn der Transparency-Modus aktiviert ist. Adaptive Audio hingegen leistet viel mehr als das.
Treski erklärt, dass der neue Modus langsamer arbeitet als Adaptive Transparency, aber das liegt daran, dass es einen "viel methodischeren Prozess gibt, um zu wissen, was man hört" und das Spektrum zwischen Transparency und Noise Cancellation intelligent anzupassen.
Das System erkennt, ob du einen Song oder einen Podcast hörst, während Mikrofone in den AirPods die Lautstärke in deinen Ohren messen, um ein Gefühl für die Lautstärke zu bekommen, die der Nutzer empfindet. Bei der Entwicklung dieser Funktion versuchte Apple jedoch einen völlig anderen Ansatz.
Die Funktion verließ sich fast auf GPS
Anstatt sich auf Mikrofone und andere Sensoren zu verlassen, zog Apple in Erwägung, das GPS des iPhones zu nutzen, um festzustellen, wann sich der Nutzer an einem lauten Ort befindet, um die adaptiven Audiopegel anzupassen. So würden die AirPods zum Beispiel automatisch in den Transparenzmodus wechseln, wenn der Nutzer auf der Straße geht.
"Während der frühen Erforschung von Adaptive Audio haben wir grundsätzlich zwischen ANC und Transparenz unterschieden, je nachdem, wo man sich befindet", erklärt Huang. "Sie können sich vorstellen, dass das Telefon einen Hinweis an die AirPods geben kann und sagt: "Hey, du bist im Haus" und so weiter."
"Nach allem, was wir gelernt haben, glauben wir nicht, dass das der richtige Weg ist, und so haben wir es auch nicht gemacht. Natürlich ist Ihr Haus nicht immer ruhig und die Straßen sind nicht immer laut. Wir haben uns dafür entschieden, dass die AirPods die Umgebung in Echtzeit überwachen und selbständig intelligente Entscheidungen treffen, anstatt sich auf einen Standort-Hinweis des Telefons zu verlassen", fügte er hinzu.
Weitere Informationen zu den AirPods
Für die personalisierte Lautstärke hat Apple nach eigenen Angaben "stundenlang verschiedene Daten" darüber ausgewertet, wie Nutzer unterschiedliche Inhalte in verschiedenen Umgebungen hören, um ihre Vorlieben zu verstehen. Die AirPods merken sich auch die Vorlieben der Nutzer, je nachdem, wo sie sich befinden und wie laut es dort ist - das alles geschieht auf dem Gerät.Was die Gesprächserkennung betrifft, so wartet die Funktion nicht nur, bis sie eine vorherrschende Stimme erkennt, sondern nutzt auch Beschleunigungssensoren, um Kieferbewegungen zu erkennen, um sicherzustellen, dass der Nutzer spricht und nicht jemand anderes in der Nähe.
Das vollständige Interview enthält einige weitere Details, wie z. B. die Bestätigung der Apple-Führungskräfte, dass die überarbeitete Version der zweiten Generation der AirPods Pro mit USB-C ein neues 5-GHz-Wireless-Protokoll verwendet , um Lossless Audio zu übertragen, wenn sie mit einem Apple Vision Pro gekoppelt ist.