Rejoignez-nous pour revenir à New York le 5 juin pour collaborer avec des dirigeants afin d’explorer des méthodes complètes d’audit des modèles d’IA concernant les préjugés, les performances et la conformité éthique dans diverses organisations. Découvrez comment vous pouvez y assister ici.
Parfois, on a l’impression que le monde avance soudainement. C’est certainement ce que l’on ressentait il y a 18 mois lorsque OpenAI a lancé ChatGPT pour la première fois. Selon un étude de l’UBS, ChatGPT a atteint plus de 100 millions d’utilisateurs au cours des deux premiers mois de sa sortie, ce qui en fait l’application grand public connaissant la croissance la plus rapide de l’histoire. À ce moment-là, on avait le sentiment palpable que quelque chose de dramatique était en train de se produire.
Ensuite, le monde est passé de la fascination et de l’enthousiasme à la peur et à l’anxiété face au potentiel d’extermination imminente des IA malveillantes. Se souvenir du « pause» proposé par Elon Musk et plusieurs centaines d’autres, arguant que le développement de l’IA devrait s’arrêter pendant six mois ? Cela ne s’est pas produit, même si Musk – ironiquement – a commencé à créer sa propre alternative de type ChatGPT pendant cette période.
Certains, comme le chercheur en IA Eliezer Yudkowsky, inquiet que ChatGPT pointait vers un avenir proche où l’IA « atteindrait une intelligence plus intelligente que l’humain » et tuerait tout le monde. C’est même devenu à la mode pour que les gens évaluent leur croyance dans la probabilité de ce résultat, appelé « probabilité de malheur » ou « P(doom) ». « Quel est votre P-(doom) ? » a fait l’objet de conversations au dînerdu moins dans la Silicon Valley et dans d’autres lieux de rencontre de haute technologie.
Les personnes qui revendiquaient un P(doom) élevé étaient qualifiées de « doomers ». Ceci même inclusdéd Geoffrey Hinton, l’un des « parrains de l’IA », qui décidé il y a un an que la technologie de l’IA qu’il avait contribué à faire progresser progressait beaucoup plus rapidement que prévu. Ses inquiétudes quant aux risques existentiels potentiels liés aux systèmes d’IA de plus en plus puissants l’ont incité à changer de position.
Changement de paradigme
Néanmoins, nous sommes toujours là. Peut-être que les risques sont toujours là aussi – ils n’existeront que dans le futur. Mais au lieu de Le terminateurnous avons des assistants virtuels sympathiques comme Samança. Cette nouvelle capacité d’assistant est basée sur GPT-4o (« o » pour omni)publié cette semaine par OpenAI, qui peut «raisonner à travers l’audio, la vision et le texte en temps réel.» Il peut converser en utilisant un discours naturel sans décalage notable, lire des signaux émotionnels (et répondre en nature) et traiter les entrées visuelles. Conformément à ces nouvelles capacités, le rédacteur principal Mark Sullivan de Entreprise rapide conclu que ChatGPT «devient plus intelligent émotionnellement».
Ryan Morrison, rédacteur en chef de l’IA chez Le guide de Tom posé: « Ce à quoi nous assistons – et d’autres entreprises rattraperont leur retard – c’est l’aube d’une nouvelle ère dans la technologie des interfaces homme-machine. » Morrison a ajouté : « Il s’agit d’un changement de paradigme aussi important dans l’accès à l’information que la première presse à imprimer, la machine à écrire, l’ordinateur personnel, Internet ou même le smartphone. » J’ai dû être d’accord avec cette observation après avoir regardé la démo en direct de GPT-4o. Cela ressemblait en effet à un autre bond en avant significatif.
AGI ou IA étroite ?
Et pourtant, cela ne devrait vraiment pas se produire, du moins pas maintenant. Il y a seulement quelques mois, c’était a cru que ce niveau de réalisation nécessiterait une intelligence générale artificielle (AGI), nécessitant des avancées scientifiques significatives dans des domaines tels que le traitement du langage naturel, l’intelligence émotionnelle et la créativité.
Personne ne prétend que ce nouveau niveau d’assistant virtuel est de l’AGI, une intelligence générale qui égale ou dépasse les performances humaines dans un large éventail de tâches cognitives. J’ai interrogé ChatGPT à ce sujet et il a convenu que GPT-4o n’est pas encore AGI. Ça disait: « GPT-4o doit être décrit comme une forme avancée d’IA faible (ou étroite). Il s’agit d’un outil sophistiqué qui combine plusieurs types de traitement de données de manière innovante, repoussant les limites de ce que l’IA peut faire dans le cadre de paramètres spécifiés, tout en fonctionnant sous les limites d’une machine conçue pour des applications particulières, plutôt que d’un intellect entièrement autonome et polyvalent. .»
Astuce de salon ou utile pour les applications ?
Le Démo GPT-4o c’était comme de la magie, mais cela se traduira-t-il par une utilité réelle ? L’ajout d’une interaction de type humain rendra les technologies d’IA plus naturelles et plus attrayantes pour l’utilisateur et pourrait clairement améliorer l’expérience utilisateur dans diverses applications, notamment le service client, l’assistance virtuelle, l’éducation et le divertissement.
Kevin Roose, chroniqueur technique à Le New York Timesrécemment parlé sur le Hard Fork podcast et dans le Fois à propos des « amis IA » qu’il a créés sur plusieurs plateformes, dont Nomi, Kindroid et Replika. Toutes ces entreprises utilisent la technologie LLM (Large Language Model), comme celle qui sous-tend ChatGPT avant GPT-4o. Roose a construit 18 compagnons personnalisés, a donné à chacun une histoire et a pu discuter avec eux en envoyant des SMS dans les deux sens. Il pouvait également parler avec certains d’entre eux, mais avec un décalage important. Même avant l’annonce du GPT-4o et de sa capacité à « voir » et à communiquer des émotions, et avec des réponses vocales proches du temps réel, il concluait : « La technologie nécessaire à un compagnonnage réaliste de l’IA est déjà là. »
D’autres entreprises s’appuient déjà sur GPT-4o, dont une qui ajoute un visage à la voix. Avec des expressions et des mouvements de lèvres synchronisés, cette capacité ajoutera à l’attrait déjà notable des amis de l’IA, mais trouvera également des applications dans les soins de santé, les soins, le coaching et l’éducation – où un visage amical peut faire la différence. L’ajout d’un visage de type humain permet d’imaginer plus facilement des enseignants virtuels, des conseillers en santé ou des représentants de marque.
Une plus grande capacité à intégrer des données audio, visuelles et textuelles ouvre des opportunités potentiellement transformatrices dans des secteurs comme la santé, où elle pourrait conduire à une interaction plus nuancée avec les patients et à des plans de soins personnalisés.
Les médecins sont déjà explorant l’impact possible de cette avancée, y compris les assistants de santé virtuels fonctionnant comme « des conseillers en santé 24 heures sur 24 et 7 jours sur 7, fournissant des conseils médicaux immédiats, rappelant aux patients les médicaments et offrant même un soutien en matière de santé mentale ». Cela pourrait également inclure un « soutien empathique pour les problèmes de santé mentale », qui complète les thérapies traditionnelles en reconnaissant et en répondant aux signaux subtils dans le discours ou le comportement d’un patient.
Dans le domaine de l’éducation, cette technologie pourrait répondre à des styles d’apprentissage variés avec un contenu adaptatif répondant en temps réel aux besoins de chaque élève. Par exemple, dans ce vidéoSal Kahn – le fondateur de la Khan Academy dont la mission est d’offrir un enseignement gratuit – et son fils Imran travaillent avec GPT-4o pour résoudre un problème de mathématiques.
À mesure que GPT-4o et les offres similaires continuent d’évoluer, nous pouvons anticiper des formes plus sophistiquées de compréhension du langage naturel et d’intelligence émotionnelle. Cela pourrait conduire à une IA qui non seulement comprendrait les émotions humaines complexes, mais qui réagirait également de manière de plus en plus appropriée et utile. L’avenir pourrait voir l’IA devenir partie intégrante des réseaux de soutien émotionnel, offrant une compagnie et une aide véritablement empathiques et informées.
Le parcours de l’IA, depuis une technologie de niche jusqu’à un élément fondamental de nos interactions quotidiennes, est à la fois exaltant et intimidant. Pour naviguer de manière responsable dans cette révolution de l’IA, il est essentiel que les développeurs, les utilisateurs et les décideurs politiques s’engagent dans un dialogue rigoureux et continu sur l’utilisation éthique de ces technologies. Alors que GPT-4o et les outils d’IA similaires sont de plus en plus intégrés dans notre vie quotidienne, nous devons parcourir ce voyage de transformation avec sagesse et prévoyance, en veillant à ce que l’IA reste un outil qui renforce plutôt que ne diminue notre humanité.
Gary Grossman est vice-président directeur de la pratique technologique chez Edelmann et responsable mondial du centre d’excellence Edelman AI.
DataDecisionMakers
Bienvenue dans la communauté VentureBeat !
DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.
Si vous souhaitez en savoir plus sur des idées de pointe et des informations à jour, sur les meilleures pratiques et sur l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.
Vous pourriez même envisager contribuer à un article ton propre!