Sam Altman, le PDG d’OpenAI, vient d’annoncer que sa société travaillait sur le lancement d’un device sans écran dopé à l’IA censé remplacer nos smartphones et même nos ordinateurs. Un projet qui rappelle le tristement célèbre Rabbit R1.
- OpenAI développe un device sans écran, intégré à l'IA, pour remplacer smartphones et ordinateurs.
- Il sera conçu comme un objet de poche ou de table, avec une interaction vocale fluide.
- Le projet vise à distribuer 100 millions d’unités dès 2026, en évitant les erreurs du Rabbit R1.
- Les détails techniques et la gestion des données restent encore flous.
Un objet sans écran, contextuellement intelligent
L’idée peut surprendre à l’heure où les écrans sont omniprésents. Pourtant, le nouvel appareil conçu par OpenAI, en partenariat avec le célèbre designer Jony Ive (ancien d’Apple), sera totalement dépourvu d’affichage. Il s’agira d’un objet de poche, « screenless », capable de comprendre son environnement grâce à des capteurs, du traitement local, et une IA embarquée.
Selon le Wall Street Journal, Altman a présenté l’appareil à ses équipes le 21 mai 2025. Le but : créer un nouveau type de terminal intelligent, plus respectueux de l’attention humaine et moins dépendant du « scroll infini ». L’engin ne serait pas porté (pas de lunettes ni de montre), mais conçu pour tenir dans une poche et se poser sur une table, comme un téléphone ou une enceinte connectée.
Un projet soutenu par l’acquisition de la startup io de John Ives
Pour concrétiser cette vision, OpenAI aurait engagé le rachat de la société io, un studio de design fondé par Jony Ive, pour un montant estimé à 6,5 milliards de dollars, selon Times of India. Cette opération serait la plus grosse acquisition d’OpenAI à ce jour.
https://youtu.be/W09bIpc_3ms
Le projet vise à positionner ce nouveau produit comme un « troisième appareil » dans notre quotidien, aux côtés du smartphone et de l’ordinateur portable. Ive aurait même évoqué une « nouvelle ère du design », s’éloignant volontairement des écrans lumineux et des interfaces tactiles, pour revenir à une forme d’interaction plus fluide et vocale.
100 millions d’unités prévues dès le lancement
Le chiffre impressionne : Sam Altman souhaite livrer 100 millions de ces compagnons IA dès leur lancement, prévu pour la fin 2026. Un objectif industriel ambitieux qui, selon lui, pourrait propulser OpenAI vers une valorisation proche de 1 000 milliards de dollars.
Dans une analyse de The Verge, le projet est perçu comme une tentative de créer un nouvel écosystème matériel autour de l’IA générative. L’appareil pourrait agir comme un assistant personnel, en interaction constante avec l’utilisateur, sans requérir d’écran pour consulter des données ou lancer des commandes.
Un précédent décevant : le cas du Rabbit R1
Ce n’est pas la première fois qu’un assistant IA physique suscite l’enthousiasme médiatique. Le Rabbit R1, présenté en janvier 2024 lors du CES de Las Vegas, promettait lui aussi une révolution dans l’assistance personnelle.
Vendu comme un terminal autonome embarquant un « Large Action Model », il devait simplifier la vie numérique en exécutant des tâches à la voix.
Mais rapidement après sa mise sur le marché, la presse spécialisée et les développeurs ont découvert que le R1 n’était qu’un simple smartphone Android reconditionné, utilisant des scripts pour simuler des fonctions intelligentes. L’engin ne disposait pas de véritable modèle IA embarqué, et son fonctionnement reposait sur des interfaces Web automatisées. Certains ont parlé de « tromperie technique », d’autres de campagne marketing survendue. Résultat : la confiance dans les appareils IA physiques a été sérieusement ébranlée.
En s’associant à Jony Ive et en développant en interne l’IA comme le matériel, OpenAI semble vouloir éviter les erreurs du passé. L’objectif est de proposer un terminal réellement autonome, intelligent et conçu dès le départ comme un produit à part entière – et non un gadget maquillé.
Pas de lunettes, pas de surveillance généralisée annoncée
Les détails techniques sont encore rares. Ce que l’on sait, c’est que l’objet ne sera pas un wearable. Il n’y aurait donc ni lunettes connectées ni capteurs à porter.
Son intelligence contextuelle suscite toutefois des questions légitimes sur la collecte de données :
- microphones toujours actifs ?
- détection des mouvements ?
- audio ambiant ?
Pour l’instant, aucun détail n’a été donné sur les aspects de confidentialité ou d’opt-in de ces fonctionnalités.
Un élément reste clair : le projet entend répondre à la fatigue numérique en proposant une nouvelle manière d’interagir avec les IA. Sam Altman semble miser sur une adoption massive et rapide, avec un design signé Ive pour séduire le grand public.
- GOOGLE Home Nest Hub Bluetooth Gris ClairGoogle Nest Hub Pebble Haut-parleur sans fil Écran tactile 2,1 m Wi-Fi/Bluetooth Commande vocale avec
- Nest hub Google 2nd Gen : Assistant virtuel IA. Automatisez Votre Maison, contrôlez Vos appareils et Profitez de l’audio Multi-RoomTaille de l’écran : 17,8 cm Résolution de l’écran : 1024 x 600 Assistant virtuel. Fonctionne avec l’Assistant Google Compatibilité du système d’exploitation : Android iOS À partir de mars 2021 : veuillez consulter le fabricant pour obtenir la compatibilité la plus récente Conducteurs : 1 x 1,7″/43,5 mm de gamme complète