Le nouveau développement d#39Apple en matière d#39IA vise à s#39attaquer aux produits GPT d#39OpenAI et pourrait rendre vos interactions avec des assistants virtuels comme Siri additionally intuitives.
Le système ReaLM, qui signifie « Reference Resolution As Language Modeling », comprend les pictures et le contenu ambigus à l’écran ainsi que le contexte conversationnel pour permettre des interactions as well as naturelles avec l’IA.
Le nouveau système Apple surpasse les autres grands modèles de langage comme GPT-4 pour déterminer le contexte et à quoi les expressions linguistiques font référence, selon les chercheurs qui l#39ont créé. Et, en tant que système moins complexe que d#39autres grands modèles de langage comme la série GPT d#39OpenAI, les chercheurs ont qualifié ReaLM de « choix idéal » pour un système de déchiffrement de contexte « qui peut exister sur l#39appareil sans compromettre les performances ».
Par exemple, disons que vous demandez à Siri de vous montrer une liste de pharmacies locales.
Une fois la liste présentée, vous pouvez lui demander « Appelez celui sur Rainbow Road » ou « Appelez celui du bas ». Avec ReaLM, au lieu de recevoir un information d#39erreur demandant additionally d#39informations, Siri pourrait déchiffrer le contexte nécessaire pour mener à bien une telle tâche mieux que GPT-4, selon les chercheurs d#39Apple. qui a créé le système.
« Le discours humain contient généralement des références ambiguës telles que » ils « ou » cela « , dont la signification est évidente (pour les autres humains) étant donné le contexte », ont écrit les chercheurs à propos des capacités de ReaLM. « Être able de comprendre le contexte, y compris les références comme celles-ci, est essentiel pour un assistant conversationnel qui vise à permettre à un utilisateur de communiquer naturellement ses besoins à un agent, ou d#39avoir une conversation avec lui. »
Le système ReaLM peut interpréter des pictures intégrées dans du texte, ce qui, selon les chercheurs, peut être utilisé pour extraire des informations telles que des numéros de téléphone ou des recettes à partir d#39photographs sur la web site.
Le GPT-3.5 d#39OpenAI n#39accepte que la saisie de texte, et GPT-4, qui peut également contextualiser des photos, est un vaste système formé principalement sur des illustrations or photos naturelles et réelles, et non sur des captures d#39écran – ce qui, selon les chercheurs d#39Apple, entrave ses performances pratiques et fait de ReaLM le meilleure possibility pour comprendre les informations à l’écran.
« Apple a longtemps été considéré comme un retardataire par rapport à Microsoft, Google et Amazon dans le développement de l#39IA conversationnelle », rapporte The Details.
« Le fabricant d#39Iphone a la réputation d#39être un développeur prudent et délibéré de nouveaux produits – une tactique qui a bien fonctionné pour gagner la confiance des consommateurs, mais qui pourrait lui nuire dans la system rapide à l#39IA. »
Mais avec les taquineries sur les capacités de ReaLM, il semble qu#39Apple se prépare sérieusement à entrer dans la training course.
On ne sait toujours pas quand ni si ReaLM sera implémenté dans Siri ou d#39autres produits Apple, mais le PDG Tim Cook dinner a déclaré lors d#39une récente conférence téléphonique que la société était « heureuse de partager les détails de notre travail en cours dans le domaine de l#39IA moreover tard cette année ».
- "Reference Resolution As Language Modeling", le nouveau système d'IA développé par les chercheurs d'Apple permet des interactions plus naturelles avec l'IA en saisissant et interprétant le contexte du contenu à l'écran.
- Ce système semble surpasser GPT-4 d'OpenAI en termes de compréhension du contexte et pourrait améliorer l'utilisation des assistants virtuels tels que Siri.
- Le PDG Tim Cook a annoncé que les détails sur ce développement seront partagés plus tard cette année, laissant entendre que ReaLM pourrait être implémenté dans un produit Apple prochainement.