Rejoignez nos newsletters quotidiennes et hebdomadaires pour les dernières mises à jour et du contenu exclusif sur la couverture de l’IA de pointe du secteur. Apprendre encore plus
Nous avions l’habitude de spéculer sur le moment où nous verrions un logiciel capable de réussir systématiquement le test de Turing. Aujourd’hui, nous tenons pour acquis non seulement que cette technologie incroyable existe, mais aussi qu’elle continuera à s’améliorer et à devenir de plus en plus performante rapidement.
Il est facile d’oublier tout ce qui s’est passé depuis ChatGPT est sorti le 30 novembre 2022. Depuis lors, l’innovation et la puissance n’ont cessé de provenir du public grands modèles de langage Masters de maîtrise. Toutes les quelques semaines, on avait l’impression de voir quelque chose de nouveau qui repoussait les limites.
Aujourd’hui, pour la première fois, des signes indiquent que ce rythme pourrait ralentir de manière significative.
Pour voir la tendance, regardez les versions d’OpenAI. Le saut de GPT-3 à GPT-3.5 a été énorme, propulsant OpenAI dans la conscience publique. Le saut vers GPT-4 a également été impressionnant, un pas de géant en avant en termes de puissance et de capacité. Puis est venu GPT-4 Turbo, qui a ajouté un peu de vitesse, puis GPT-4 Vision, qui a vraiment déverrouillé les capacités de reconnaissance d’image existantes de GPT-4. Et il y a quelques semaines à peine, nous avons vu la sortie de GPT-4oqui offrait une multimodalité améliorée mais relativement peu de puissance supplémentaire.
D’autres LLM, comme Claude 3 de Anthropique et Gemini Ultra de Google ont suivi une tendance similaire et semblent désormais converger vers des valeurs de référence de vitesse et de puissance similaires à celles du GPT-4. Nous ne sommes pas encore en phase de plateau, mais nous semblons entrer dans une phase de ralentissement. La tendance qui se dessine : moins de progrès en termes de puissance et d’autonomie à chaque génération.
Cela façonnera l’avenir de l’innovation en matière de solutions
Cela compte beaucoup ! Imaginez que vous ayez une boule de cristal à usage unique : elle vous dira tout, mais vous ne pourrez lui poser qu’une seule question. Si vous essayez de savoir ce qui va arriver dans l’IA, cette question pourrait bien être : à quelle vitesse Les LLM continuent de gagner en puissance et en capacités?
Car à l’image des LLM, le monde de l’IA évolue. Chaque amélioration substantielle des LLM a fait une grande différence dans ce que les équipes peuvent construire et, plus important encore, dans ce qu’elles peuvent faire fonctionner de manière fiable.
Pensez à l’efficacité des chatbots. Avec le GPT-3 original, les réponses aux invites des utilisateurs pouvaient être aléatoires. Puis nous avons eu le GPT-3.5, qui a rendu beaucoup plus facile la création d’un chatbot convaincant et a offert des réponses meilleures, mais toujours inégales. Ce n’est qu’avec le GPT-4 que nous avons vu des résultats systématiquement conformes aux objectifs d’un LLM qui suivait réellement les instructions et montrait un certain niveau de raisonnement.
Nous nous attendons à voir Bientôt GPT-5mais OpenAI semble gérer les attentes avec prudence. Cette sortie nous surprendra-t-elle en faisant un grand bond en avant, provoquant une nouvelle poussée de l’innovation en IA ? Dans le cas contraire, et nous continuons à voir des progrès décroissants dans d’autres modèles de LLM publics également, je prévois de profondes implications pour le domaine de l’IA au sens large.
Voici comment cela pourrait se passer :
- Plus de spécialisation:Lorsque les LLM existants ne sont tout simplement pas assez puissants pour gérer des requêtes nuancées sur des sujets et des domaines fonctionnels, la réponse la plus évidente pour les développeurs est la spécialisation. Nous pourrions voir davantage d’agents d’IA développés qui s’attaquent à des cas d’utilisation relativement restreints et servent des communautés d’utilisateurs très spécifiques. En fait, le lancement d’OpenAI GPT Cela pourrait être interprété comme une reconnaissance du fait qu’il n’est pas réaliste d’avoir un système capable de tout lire et de réagir à tout.
- L’essor de nouvelles interfaces utilisateur : Jusqu’à présent, l’interface utilisateur dominante dans le domaine de l’IA a été sans conteste le chatbot. Le restera-t-il ? En effet, même si les chatbots présentent des avantages évidents, leur apparente ouverture (l’utilisateur peut saisir n’importe quelle invite) peut en réalité conduire à une expérience utilisateur décevante. Nous pourrions bien voir davantage de formats dans lesquels l’IA est à l’œuvre, mais où les garde-fous et les restrictions guidant l’utilisateur sont plus nombreux. Pensez par exemple à un système d’IA qui analyse un document et propose à l’utilisateur quelques suggestions possibles.
- Les LLM open source comblent le fossé:Le développement des LLM étant considéré comme extrêmement coûteux, il semblerait que Mistral et Llama, ainsi que d’autres fournisseurs open source qui n’ont pas de modèle commercial clair, seraient fortement désavantagés. Cela pourrait toutefois ne plus avoir autant d’importance si OpenAI et Google ne produisent plus d’énormes avancées. Lorsque la concurrence se portera sur les fonctionnalités, la facilité d’utilisation et les capacités multimodales, ils pourront peut-être tenir le coup.
- La course aux données s’intensifie : Une raison possible pour laquelle nous voyons les LLM commencer à tomber dans la même gamme de capacités pourrait être que ils manquent de données de formation. À l’approche de la fin des données textuelles publiques, les entreprises de LLM devront chercher d’autres sources. C’est peut-être la raison pour laquelle OpenAI se concentre autant sur Sora. L’utilisation d’images et de vidéos pour la formation signifierait non seulement une nette amélioration potentielle de la façon dont les modèles gèrent les entrées non textuelles, mais aussi plus de nuances et de subtilité dans la compréhension des requêtes.
- Émergence de nouvelles architectures LLM:Jusqu’à présent, tous les principaux systèmes utilisent architectures de transformateurs mais il y en a d’autres qui se sont montrés prometteurs. Ils n’ont jamais été vraiment explorés ou investis, cependant, en raison des progrès rapides provenant des LLM de transformateurs. Si ceux-ci commencent à ralentir, nous pourrions voir plus d’énergie et d’intérêt pour Mamba et d’autres modèles sans transformateur.
Réflexions finales : l’avenir des LLM
Bien entendu, tout cela n’est que spéculation. Personne ne sait où les capacités de LLM ou l’innovation en matière d’IA progresseront ensuite. Ce qui est clair, en revanche, c’est que les deux sont étroitement liées. Et cela signifie que chaque développeur, concepteur et architecte travaillant dans l’IA doit réfléchir à l’avenir de ces modèles.
Un modèle possible pourrait émerger pour les LLM : ils se font de plus en plus concurrence sur le plan des fonctionnalités et de la facilité d’utilisation. Au fil du temps, nous pourrions assister à une certaine banalisation, semblable à ce que nous avons observé ailleurs dans le monde de la technologie. Pensez, par exemple, aux bases de données et aux fournisseurs de services cloud. Bien qu’il existe des différences substantielles entre les différentes options sur le marché et que certains développeurs aient des préférences claires, la plupart les considèrent comme largement interchangeables. Il n’y a pas de « gagnant » clair et absolu en termes de puissance et de capacité.
Cai GoGwilt est le co-fondateur et architecte en chef de Cuirassé.
Décideurs de données
Bienvenue dans la communauté VentureBeat !
DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.
Si vous souhaitez en savoir plus sur les idées de pointe et les informations actualisées, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous chez DataDecisionMakers.
Vous pourriez même envisager contribuer à un article de toi-même !