Omdia a indiqué que le coût des matières premières des lunettes Vision Pro n'inclut pas la R&D, l'emballage, le marketing ni les marges bénéficiaires d'Apple. L'élément le plus coûteux est l'écran de 1,25 pouce fabriqué par Sony Semiconductor, un composant essentiel pour offrir des images plus réalistes que les lunettes de réalité augmentée concurrentes. Omdia estime le coût d'un seul écran Micro OLED à 228 $, et les Vision Pro en utilisent deux.
Apple réalise près de 2 000 $ de bénéfice pour chaque Vision Pro vendu ?
Dans son annonce, Apple a indiqué que l'écran Vision Pro possédait plus de 23 millions de pixels, soit la densité d'affichage la plus élevée du marché. Selon iFixit, les 54 pixels de l'écran Vision Pro peuvent tenir dans un pixel de l'écran de l'iPhone, chaque pixel étant distant d'environ 7,5 microns.
Apple aurait choisi un écran haute résolution pour ses lunettes afin de mieux simuler la réalité lors de l'utilisation du mode « pass-through », qui utilise une caméra orientée vers l'extérieur pour afficher des vidéos dans le monde réel. Cette haute résolution permet aux utilisateurs de lire du texte ou des chiffres en réalité virtuelle, tout en éliminant l'effet « porte d'écran » observé sur d'autres lunettes, où de fines lignes séparant les pixels deviennent visibles.
Les composants les plus coûteux du Vision Pro incluent la puce Apple M2 associée au processeur Apple R1. Outre le coût des composants, il faut ajouter les frais de recherche et développement, d'emballage et d'expédition. À cela s'ajoutent les coûts d'investissement, qui peuvent augmenter considérablement le coût initial des commandes de composants.
En mentionnant le Vision Pro dans son récent rapport financier, le PDG Tim Cook a déclaré qu'outre les pièces les plus chères de l'appareil, la grande quantité de technologie à l'intérieur du produit ainsi que les activités de R&D rendent son coût élevé.
« Ce produit est protégé par 5 000 brevets et s'appuie sur de nombreuses innovations développées par Apple depuis des années, du silicium aux écrans, en passant par l'intelligence artificielle et le machine learning. Les fonctionnalités de suivi des mains et de cartographie intérieure sont toutes optimisées par l'IA ; nous sommes donc extrêmement enthousiastes », a déclaré Cook.
Lien source
Comment (0)