Eigener Sensor

Apple entwickelt eigene iPhone-Kamera-Sensoren mit revolutionärem Dynamikumfang

Apple hat eigene iPhone-Bildsensoren entwickelt und testet diese bereits in Prototypen. Die neue Technologie verspricht Dynamikumfang wie das menschliche Auge.

Von   Uhr
3 Minuten Lesezeit

Apple arbeitet nach neuesten Berichten nicht nur an der Entwicklung eigener Bildsensoren für das iPhone, sondern hat diese bereits erfolgreich entwickelt und testet sie möglicherweise bereits in Prototypen. Diese Entwicklung könnte Apples Unabhängigkeit von externen Zulieferern wie Sony weiter stärken.

Quickread: Auf einen Blick
  • Apple hat eigene iPhone-Bildsensoren entwickelt und testet diese bereits in Prototypen.
  • Die neuen Sensoren erreichen bis zu 20 Blendenstufen Dynamikumfang - nahe dem menschlichen Auge.
  • Apple würde damit unabhängig von Sony-Sensoren und hätte vollständige Kontrolle über die Bildverarbeitung.

Apple entwickelt eigene iPhone-Bildsensoren

Nach Informationen des chinesischen Leakers „Fixed Focus Digital“ hat Apple die Entwicklung eigener Bildsensoren über das Stadium reiner Patentanmeldungen hinaus vorangetrieben. Im Juli hatte das Unternehmen bereits ein Patent mit dem Titel „Image Sensor With Stacked Pixels Having High Dynamic Range And Low Noise“ eingereicht, das einen revolutionären Sensoraufbau beschreibt.

Die neue Technologie verspricht einen Dynamikumfang von bis zu 20 Blendenstufen – ein Wert, der dem menschlichen Auge mit seinen 20 bis 30 Blendenstufen sehr nahekommt. Aktuelle Smartphone-Kameras erreichen typischerweise nur zwischen zehn und 13 Blendenstufen. Sollte Apple dieses Ziel erreichen, würde der neue Sensor nicht nur bisherige iPhones übertreffen, sondern auch professionelle Kinokameras wie die ARRI ALEXA 35 in den Schatten stellen.

Revolutionärer zweischichtiger Aufbau

Dynamikumfang erklärt!

Der Dynamikumfang beschreibt, wie große Helligkeitsunterschiede eine Kamera in einem einzigen Bild erfassen kann. Er wird in Blendenstufen gemessen, wobei jede Stufe eine Verdopplung oder Halbierung der Lichtmenge bedeutet. Das menschliche Auge erreicht etwa 20 bis 30 Blendenstufen, während aktuelle Smartphone-Kameras nur 10 bis 13 Stufen schaffen.

Der patentierte Sensor basiert auf einem zweischichtigen Design. Die obere Schicht, der Sensor-Die, enthält die lichterfassenden Komponenten. Die darunterliegende Logik-Schicht übernimmt die Verarbeitung, einschließlich Rauschunterdrückung und Belichtungssteuerung. Diese Architektur ähnelt den aktuellen Sony-Sensoren in iPhones, bietet jedoch mehrere innovative Verbesserungen und benötigt weniger Platz.

Ein Schlüsselelement der neuen Technologie ist das sogenannte Lateral Overflow Integration Capacitor (LOFIC). Dieses System ermöglicht es jedem Pixel, unterschiedliche Lichtmengen je nach Helligkeit der Szene zu speichern – und das alles in einem einzigen Bild. Dadurch kann der Sensor extrem große Helligkeitsunterschiede bewältigen, beispielsweise bei einer Person vor einem hellen Fenster, ohne Details in Schatten oder Lichtern zu verlieren.

Integrierte Rauschunterdrückung auf Chip-Ebene

Eine weitere Innovation zielt auf die Reduzierung von Bildrauschen ab. Jeder Pixel verfügt über eine eigene integrierte Speicherschaltung, die hitzebedingte elektronische Störungen in Echtzeit misst und eliminiert. Diese Verarbeitung erfolgt direkt auf dem Chip, noch bevor das Bild gespeichert oder durch Software bearbeitet wird.

Apples Bestreben, eigene Bildsensoren zu entwickeln, fügt sich in die umfassende Strategie ein, die Abhängigkeit von externen Zulieferern zu reduzieren. Ähnlich wie bei der Entwicklung eigener Prozessoren und Modems würde Apple durch selbst entwickelte Sensoren die vollständige Kontrolle über die Bildverarbeitungskette erlangen.

Zeitplan und Markteinführung

Wann die neuen Sensoren in Verbrauchergeräten zum Einsatz kommen könnten, bleibt unklar. Die Tatsache, dass Apple laut dem Leak bereits Prototypen testet, deutet jedoch darauf hin, dass das Unternehmen konkrete Pläne für eine kommerzielle Umsetzung verfolgt.

Derzeit nutzt Apple ausschließlich Sensoren von Sony für die gesamte iPhone-Palette. Ein Wechsel zu eigenen Sensoren würde nicht nur technische Vorteile bieten, sondern auch Apples strategische Unabhängigkeit weiter stärken – ein Trend, der sich bereits bei der Entwicklung eigener Chips und Modems abzeichnet.

Die Entwicklung eigener Bildsensoren unterstreicht Apples Ambitionen, nicht nur als führender Smartphone-Hersteller, sondern auch als innovatives Kameraunternehmen wahrgenommen zu werden. Sollten die technischen Ziele erreicht werden, könnte Apple einen neuen Standard für mobile Fotografie setzen.

Mehr zu diesen Themen: