Dans un article très technique récemment publié, Apple dévoile son nouveau modèle d’IA nommé ReALM (Reference Resolution As Language Modeling) ayant pour particularité de comprendre les références subtiles, aussi bien sur des images que dans le contexte d’une conversation.
Même si Apple n’a toujours pas pris le train de l’IA dans sa communication, la compagnie est loin d’être inactive en coulisses sur ce domaine crucial de la technologie actuelle et future. Les particularités de ce nouveau système permettront notamment d’améliorer les interactions utilisateur avec l’assistant vocal Siri.
L'IA du quotidien
Dans le détail, l’approche d’Apple consiste à convertir toutes les informations d’une image en texte, éliminant le besoin d’algorithmes de reconnaissance complexes. Ce modèle d’IA est ainsi plus léger, plus efficace, nécessite moins de ressources et peut donc être facilement déployé sur un « petit » appareil comme l’iPhone.
Le modèle peut gérer plusieurs fourchettes de paramètres ‑80 millions, 250 millions, 1 milliard, 3 milliards‑ dont la plus petite permet déjà un fonctionnement comparable à celui de GPT‑4 d'Open AI. Apple a sous‑entendu que l’intelligence artificielle sera au cœur des sujets abordés lors de sa prochaine conférence WWDC 2024 le 10 juin, dédiée aux développeurs.