- Das iPhone 15 erfüllt eine Vision für die...
Vor mehr als einem Jahrzehnt hatte Steve Jobs wahrscheinlich etwas für die iPhone-Kamera im Sinn, das diese Woche endlich verwirklicht wurde. Das iPhone 15 und das iPhone 15 Pro sind in der Lage, Tiefendaten von Fotos mit Personen oder Haustieren zu erfassen, sodass Sie den Fokus nach der Aufnahme anpassen können. Dieses Konzept hatte Jobs angeblich schon vor seinem Tod im Jahr 2011 auf dem Radar.
Apple hat den Porträtmodus auf dem iPhone 7 Plus eingeführt. Die Funktion nutzt ein duales Kamerasystem, um Motive mit künstlicher Unschärfe im Hintergrund aufzunehmen.
Damals wurden Vergleiche mit der Lytro-Lichtfeldkamera angestellt. Lytro war eine lippenstiftförmige Taschenkamera, die in der Lage war, Fotos mit Fokus aufzunehmen, die im Nachhinein bearbeitet werden konnten. Apple fügte diese Fähigkeit in dieser Woche dem Porträtmodus auf dem iPhone 15 und anderen Telefonen hinzu.
Das iPhone 15 und das iPhone 15 Pro gehen noch einen Schritt weiter. Wenn das Kamerasystem eine Person, eine Katze oder einen Hund im Bild erkennt, erfasst es automatisch Tiefendaten, ohne den Porträtmodus zu verwenden. So können Sie den Tiefeneffekt anpassen oder den Fokus des Motivs nachträglich bearbeiten, ohne einen separaten Kameramodus zu verwenden.
Das alles klingt nach Funktionen, die sich Steve Jobs für das iPhone-Kamerasystem vorgestellt haben könnte. Jobs traf sich mit dem Lytro-Gründer Ren Ng und erhielt eine Demo der Lytro-Kamera, bevor diese auf den Markt kam. Das geht aus Adam Lashinskys Inside Apple Buch aus dem Jahr 2012.
Apple hat den Porträtmodus auf dem iPhone 7 Plus eingeführt. Die Funktion nutzt ein duales Kamerasystem, um Motive mit künstlicher Unschärfe im Hintergrund aufzunehmen.
Damals wurden Vergleiche mit der Lytro-Lichtfeldkamera angestellt. Lytro war eine lippenstiftförmige Taschenkamera, die in der Lage war, Fotos mit Fokus aufzunehmen, die im Nachhinein bearbeitet werden konnten. Apple fügte diese Fähigkeit in dieser Woche dem Porträtmodus auf dem iPhone 15 und anderen Telefonen hinzu.
Das iPhone 15 und das iPhone 15 Pro gehen noch einen Schritt weiter. Wenn das Kamerasystem eine Person, eine Katze oder einen Hund im Bild erkennt, erfasst es automatisch Tiefendaten, ohne den Porträtmodus zu verwenden. So können Sie den Tiefeneffekt anpassen oder den Fokus des Motivs nachträglich bearbeiten, ohne einen separaten Kameramodus zu verwenden.
Das alles klingt nach Funktionen, die sich Steve Jobs für das iPhone-Kamerasystem vorgestellt haben könnte. Jobs traf sich mit dem Lytro-Gründer Ren Ng und erhielt eine Demo der Lytro-Kamera, bevor diese auf den Markt kam. Das geht aus Adam Lashinskys Inside Apple Buch aus dem Jahr 2012.
Lytro brachte daraufhin seine Lichtfeldkamera auf den Markt, aber zu diesem Zeitpunkt hatte das iPhone die mobile Fotografie bereits dominiert. Apple erhielt ein Patent für ein Kamerasystem mit der Möglichkeit, den Brennpunkt in der Nachbearbeitung zu ändern. Ein Jahrzehnt später funktioniert das iPhone-Kamerasystem nun auf diese Weise.Der CEO des Unternehmens, Ren Ng, ein brillanter Informatiker mit einem Doktortitel aus Stanford, rief sofort Jobs an, der den Hörer abnahm und schnell sagte: "Wenn Sie heute Nachmittag Zeit haben, könnten wir uns vielleicht treffen." Der zweiunddreißigjährige Ng eilte nach Palo Alto, zeigte Jobs eine Demonstration der Lytro-Technologie, diskutierte mit ihm über Kameras und Produktdesign und erklärte sich auf Wunsch von Jobs bereit, ihm eine E-Mail zu schicken, in der er drei Dinge beschrieb, die er sich von Lytro für Apple wünschte.