À la lumière de événements récents avec OpenAIla conversation sur le développement de l’IA s’est transformée en une conversation entre accélération et décélération et alignement des outils d’IA sur l’humanité.
Le débat sur la sécurité de l’IA est également rapidement devenu dominé par un débat futuriste et philosophique : devrions-nous intelligence artificielle générale (AGI), où l’IA deviendra suffisamment avancée pour effectuer n’importe quelle tâche comme un humain le pourrait ? Est-ce que c’est possible?
Même si cet aspect du débat est important, il reste incomplet si nous ne parvenons pas à relever l’un des principaux défis de l’IA : son coût incroyablement élevé.
L’IA a besoin de talents, de données et d’évolutivité
La révolution Internet a eu un effet égalisateur puisque les logiciels étaient accessibles au grand public et que les barrières à l’entrée étaient les compétences. Ces obstacles se sont atténués au fil du temps grâce à l’évolution des outils, des nouveaux langages de programmation et du cloud.
Quand cela vient à L’IA et ses avancées récentesCependant, nous devons réaliser que la plupart des gains ont été réalisés jusqu’à présent en ajoutant plus d’échelle, ce qui nécessite plus de puissance de calcul. Nous n’avons pas atteint un plateau, d’où les milliards de dollars que les géants du logiciel consacrent à l’acquisition de davantage de GPU et à l’optimisation des ordinateurs.
Pour développer l’intelligence, vous avez besoin de talents, de données et d’un calcul évolutif. La demande pour ces dernières augmente de façon exponentielle, ce qui signifie que l’IA est très rapidement devenue un jeu réservé à quelques-uns qui ont accès à ces ressources. La plupart des pays ne peuvent pas se permettre d’être un une partie de la conversation de manière significative, sans parler des individus et des entreprises. Les coûts ne concernent pas seulement la formation de ces modèles, mais également leur déploiement.
Démocratiser l’IA
Selon Les recherches récentes de Coatue, la demande de GPU ne fait que commencer. La société d’investissement prédit que la pénurie pourrait même mettre à rude épreuve notre réseau électrique. L’utilisation croissante des GPU entraînera également des coûts de serveur plus élevés. Imaginez un monde dans lequel tout ce que nous voyons actuellement en termes de capacités de ces systèmes est le pire qui puisse être. Ils ne feront que devenir de plus en plus puissants, et si nous ne trouvons pas de solutions, ils deviendront de plus en plus gourmands en ressources.
Avec l’IA, seules les entreprises ayant les moyens financiers de construire des modèles et des capacités peuvent le faire, et nous n’avons qu’un aperçu des écueils de ce scénario. Pour véritablement promouvoir la sécurité de l’IA, nous devons la démocratiser. Ce n’est qu’alors que nous pourrons mettre en place les garde-fous appropriés et maximiser l’impact positif de l’IA.
Quel est le risque de la centralisation ?
D’un point de vue pratique, le coût élevé du développement de l’IA signifie que les entreprises sont plus susceptibles de s’appuyer sur un modèle unique pour construire leur produit – mais les pannes de produit ou les échecs de gouvernance peuvent alors provoquer un effet d’entraînement. Que se passe-t-il si le modèle sur lequel vous avez bâti votre entreprise n’existe plus ou s’est dégradé ? Heureusement, OpenAI continue d’exister aujourd’hui, mais réfléchissez au nombre d’entreprises qui n’auraient pas de chance si OpenAI perdait ses employés et ne pouvait plus maintenir sa pile.
Un autre risque réside dans le fait de s’appuyer fortement sur des systèmes probabilistes aléatoires. Nous ne sommes pas habitués à cela et le monde dans lequel nous vivons jusqu’à présent a été conçu et conçu pour fonctionner avec une réponse définitive. Même si OpenAI continue de prospérer, leurs modèles sont fluides en termes de sortie et ils les modifient constamment, ce qui signifie que le code que vous avez écrit pour les prendre en charge et les résultats sur lesquels comptent vos clients peuvent changer à votre insu ou sans contrôle.
La centralisation crée également des problèmes de sécurité. Ces entreprises travaillent dans leur propre intérêt. S’il existe un problème de sécurité ou de risque avec un modèle, vous avez beaucoup moins de contrôle sur la résolution de ce problème ou moins d’accès à des alternatives.
Plus généralement, si nous vivons dans un monde où l’IA est coûteuse et où la propriété est limitée, nous créerons un fossé plus large quant aux bénéficiaires de cette technologie et multiplierons les inégalités déjà existantes. Un monde où certains ont accès à la superintelligence et d’autres n’assume pas un ordre de choses complètement différent et sera difficile à équilibrer.
L’une des choses les plus importantes que nous puissions faire pour améliorer les avantages de l’IA (et en toute sécurité) est de réduire les coûts des déploiements à grande échelle. Nous devons diversifier les investissements dans l’IA et élargir l’accès aux ressources informatiques et aux talents pour former et déployer de nouveaux modèles.
Et bien sûr, tout dépend des données. Les données et la propriété des données seront importantes. Plus les données sont uniques, de haute qualité et disponibles, plus elles seront utiles.
Comment rendre l’IA plus accessible ?
Bien qu’il existe actuellement des lacunes dans les performances des modèles open source, nous allons voir leur utilisation décoller, en supposant que La Maison Blanche permet open source pour rester vraiment ouvert.
Dans de nombreux cas, les modèles peuvent être optimisés pour une application spécifique. Le dernier kilomètre de l’IA consistera pour les entreprises à construire des couches de logique de routage, d’évaluation et d’orchestration au-dessus de différents modèles, en les spécialisant pour différents secteurs verticaux.
Avec les modèles open source, il est plus facile d’adopter une approche multimodèle et vous avez plus de contrôle. Toutefois, les écarts de performances demeurent. Je suppose que nous nous retrouverons dans un monde où vous disposerez de modèles juniors optimisés pour effectuer des tâches moins complexes à grande échelle, tandis que de plus grands modèles super-intelligents agiront comme des oracles pour les mises à jour et consacreront de plus en plus de ressources informatiques à la résolution de problèmes plus complexes. Vous n’avez pas besoin d’un modèle comportant des milliards de paramètres pour répondre à une demande de service client.
Nous avons vu des démonstrations d’IA, des cycles d’IA, des collaborations et des versions d’IA. Nous devons désormais mettre cette IA en production à très grande échelle, de manière durable et fiable. Certaines entreprises émergentes travaillent sur cette couche, faisant du multiplexage inter-modèles une réalité. À titre d’exemple, de nombreuses entreprises s’efforcent de réduire les coûts d’inférence via du matériel spécialisé, des logiciels et une distillation de modèles. En tant qu’industrie, nous devrions accorder la priorité à davantage d’investissements dans ce domaine, car cela aura un impact démesuré.
Si nous parvenons à rendre l’IA plus rentable, nous pourrons attirer davantage d’acteurs dans ce domaine et améliorer la fiabilité et la sécurité de ces outils. Nous pouvons également atteindre un objectif que se fixent la plupart des personnes dans cet espace : apporter de la valeur au plus grand nombre.
Naré Vardanyan est le PDG et co-fondateur de Ntropie.
DataDecisionMakers
Bienvenue dans la communauté VentureBeat !
DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.
Si vous souhaitez en savoir plus sur des idées de pointe et des informations à jour, sur les meilleures pratiques et sur l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.
Vous pourriez même envisager contribuer à un article ton propre!