Apple arbeitet laut einem chinesischen Supply-Chain-Gerücht an der Integration von Multispektral-Imaging-Technologie in zukünftige iPhone-Kameras. Die Technologie könnte Visual Intelligence verbessern, die Materialerkennung optimieren und die Bildverarbeitung insgesamt auf ein neues Level heben.
- Apple evaluiert Multispektral-Imaging-Komponenten in der Lieferkette, formelle Tests haben jedoch noch nicht begonnen.
- Die Technologie würde präzisere Materialerkennung und verbesserte Bildverarbeitung in gemischten Lichtverhältnissen ermöglichen.
- Komplexere Sensordesigns und höhere Kosten verzögern die Einführung – eine baldige Verfügbarkeit ist nicht zu erwarten.
Der Weibo-Leaker Digital Chat Station berichtet, dass Apple derzeit Komponenten für Multispektral-Imaging innerhalb der Lieferkette evaluiert. Allerdings befinde sich das Projekt noch in einer sehr frühen Explorationsphase – formelle Tests hätten noch nicht begonnen. Dies deutet darauf hin, dass wir die Technologie nicht in absehbarer Zeit in einem iPhone sehen werden.
Was Multispektral-Imaging von herkömmlicher Smartphone-Fotografie unterscheidet
Herkömmliche Smartphone-Kameras erfassen ausschließlich sichtbares Licht in den Spektralbereichen Rot, Grün und Blau. Multispektral-Imaging hingegen zeichnet Bilddaten über mehrere, unterschiedliche Wellenlängenbänder hinweg auf. Dies kann die Empfindlichkeit für nahinfrarotes Licht oder andere schmale Spektralbereiche erweitern und ermöglicht es der Kamera, Informationen zu erfassen, die für konventionelle Sensoren weitgehend unsichtbar sind.
Multispektral-Imaging erfasst Bilddaten über mehrere Wellenlängenbänder hinweg, nicht nur sichtbares Licht in Rot, Grün und Blau wie herkömmliche Kameras. Die Technologie kann auch nahinfrarotes Licht oder andere Spektralbereiche aufzeichnen, die für normale Sensoren unsichtbar sind. Dadurch lassen sich Materialien präziser unterscheiden und zusätzliche Informationen über Objekte und Szenen gewinnen.
Potenzielle Vorteile für iPhone-Nutzende
Sollte Apple die Technologie tatsächlich in künftigen iPhones einsetzen, könnte dies mehrere praktische Vorteile mit sich bringen. Durch die Analyse, wie verschiedene Materialien Licht über unterschiedliche Wellenlängen reflektieren, könnte die iPhone-Kamera präziser zwischen Haut, Stoff, Vegetation und reflektierenden Oberflächen unterscheiden. Dies würde eine sauberere Motiverkennung und zuverlässigere Porträteffekte ermöglichen.
Darüber hinaus könnten Multispektral-Daten die gesamte Bildverarbeitung verbessern, insbesondere beim Fotografieren in gemischten Lichtverhältnissen. Theoretisch könnte die Technologie auch Visual Intelligence und Apples On-Device-Machine-Learning optimieren, was zu besserer Objekterkennung, verbessertem Szeneverständnis und präziserer Tiefenschätzung führen würde.
Technische Herausforderungen verzögern Einführung
Die Integration zusätzlicher spektraler Empfindlichkeit würde jedoch wahrscheinlich komplexere Sensordesigns erfordern, was die Kosten erhöhen und möglicherweise Auswirkungen auf die internen Platzverhältnisse haben würde. Dies könnte der Grund dafür sein, dass Apple die Technologie laut Bericht noch evaluiert, anstatt sie aktiv in Prototypen zu testen.
Die Multispektral-Imaging-Technologie ist nicht die einzige Kamera-Innovation, an der Apple arbeitet. Das Unternehmen hat bereits ein Patent für einen fortschrittlichen Bildsensor eingereicht, der einen Dynamikumfang von bis zu 20 Blendenstufen erreichen könnte – vergleichbar mit dem menschlichen Auge. Zudem wird berichtet, dass Apple an eigenen Bildsensoren arbeitet, um die Abhängigkeit von Sony zu reduzieren.







