L’IA était un thème majeur à Davos 2024. Comme rapporté par Fortuneplus de deux douzaines de sessions lors de l’événement étaient directement axées sur l’IA, couvrant tout, de l’IA dans l’éducation à la réglementation de l’IA.
Un who’s who de l’IA était présent, dont le PDG d’OpenAI Sam AltmanMustafa Suleyman, PDG d’Inflection AI, Andrew Ng, pionnier de l’IA, Yann LeCun, scientifique en chef de Meta en IA, Aidan Gomez, PDG de Cohere, et bien d’autres.
Passer de l’émerveillement au pragmatisme
Alors qu’à Davos 2023, la conversation était pleine de spéculations basées sur la nouvelle sortie de ChatGPTcette année a été plus tempérée.
« L’année dernière, la conversation était ‘C’est génial' », a déclaré Chris Padilla, vice-président des affaires gouvernementales et réglementaires d’IBM, dans un communiqué. entretien avec Le Washington Post. « Maintenant, la question est : « Quels sont les risques ? Que devons-nous faire pour rendre l’IA digne de confiance ? »
Parmi les préoccupations discutées à Davos figuraient la désinformation généralisée, les suppressions d’emplois et l’écart économique croissant entre les pays riches et les pays pauvres.
Le risque de l’IA le plus discuté à Davos était peut-être la menace d’une désinformation généralisée, souvent sous la forme de photos deepfakes, des vidéos et des clones de voix qui pourraient brouiller davantage la réalité et miner la confiance. Un exemple récent est celui des appels automatisés lancés avant les élections primaires présidentielles du New Hampshire à l’aide d’un clone de voix se faisant passer pour le président Joe Biden de manière apparente tentative pour supprimer des votes.
Les deepfakes activés par l’IA peuvent créer et diffuser de fausses informations en donnant l’impression à quelqu’un de dire quelque chose qu’il n’a pas dit. Dans une entretienKathleen Carley, professeur à l’Université Carnegie Mellon, a déclaré : « Ce n’est en quelque sorte que la pointe de l’iceberg de ce qui pourrait être fait en ce qui concerne la suppression des électeurs ou les attaques contre les travailleurs électoraux. »
Reuven Cohen, consultant en IA d’entreprise, a également récemment dit VentureBeat estime qu’avec les nouveaux outils d’IA, nous devrions nous attendre à un flot de faux sons, images et vidéos juste à temps pour les élections de 2024.
Malgré des efforts considérables, aucune méthode infaillible pour détecter les deepfakes n’a été trouvée. Comme Jeremy Kahn observé dans un Fortune article : « Nous ferions mieux de trouver une solution bientôt. La méfiance est insidieuse et corrosive pour la démocratie et la société.
Changement d’humeur de l’IA
Ce changement d’humeur de 2023 à 2024 a conduit Suleyman à écrire dans Affaires étrangères qu’une « stratégie de guerre froide » est nécessaire pour contenir les menaces rendues possibles par la prolifération de l’IA. Il a déclaré que les technologies fondamentales telles que l’IA deviennent toujours moins chères et plus faciles à utiliser et imprègnent tous les niveaux de la société et toutes sortes d’utilisations positives et néfastes.
« Lorsque des gouvernements hostiles, des partis politiques marginaux et des acteurs isolés peuvent créer et diffuser du matériel impossible à distinguer de la réalité, ils seront capables de semer le chaos, et les outils de vérification conçus pour les arrêter pourraient bien être dépassés par les systèmes génératifs. »
Les préoccupations concernant l’IA remontent à plusieurs décennies, initialement et mieux popularisées dans le film de 1968 « 2001 : L’Odyssée de l’espace ». Depuis, les inquiétudes et les inquiétudes ne cessent de se multiplier, notamment à propos du Furby, un cyberanimal de compagnie très populaire à la fin des années 1990. Le Washington Post signalé en 1999, la National Security Administration (NSA) les a interdits de leurs locaux, craignant qu’ils ne servent d’appareils d’écoute susceptibles de divulguer des informations sur la sécurité nationale. NSA récemment publié documents de cette période a discuté de la capacité du jouet à « apprendre » en utilisant une « puce intelligente artificielle embarquée ».
Contempler la trajectoire future de l’IA
Les inquiétudes concernant l’IA sont récemment devenues aiguës alors que de plus en plus d’experts en IA affirment que Intelligence générale artificielle (AGI) pourrait être atteint prochainement. Bien que la définition exacte de l’AGI reste vague, on pense que c’est à ce moment-là que l’IA devient plus intelligente et plus performante qu’un humain ayant fait des études universitaires dans un large éventail d’activités.
Altman a dit que il pense que l’AGI pourrait ne pas être loin de devenir une réalité et pourrait être développée dans un « avenir raisonnablement proche ». Gomez a renforcé ce point de vue : « Je pense que nous aurons cette technologie très bientôt. »
Cependant, tout le monde n’est pas d’accord sur un calendrier AGI agressif. Par exemple, LeCun est sceptique quant à l’arrivée imminente d’AGI. Il a récemment dit Point de vente espagnol EL PAÍS que « l’IA à l’échelle humaine n’est pas seulement au coin de la rue. Cela va prendre beaucoup de temps. Et cela nécessitera de nouvelles avancées scientifiques dont nous ne connaissons pas encore l’existence. »
Perception du public et voie à suivre
Nous savons que l’incertitude demeure quant à l’évolution future de la technologie de l’IA. En 2024 Baromètre de confiance Edelman, qui a été lancée à Davos, les personnes interrogées dans le monde sont divisées entre le rejet (35 %) et l’acceptation (30 %) de l’IA. Les gens reconnaissent le potentiel impressionnant de l’IA, mais aussi les risques qui en découlent. Selon le rapport, les gens sont plus susceptibles d’adopter l’IA – et d’autres innovations – si elles sont approuvées par des scientifiques et des éthiciens, ils ont le sentiment de contrôler la façon dont elle affecte leur vie et ils estiment qu’elle leur apportera un avenir meilleur.
Il est tentant de se précipiter vers des solutions pour « contenir » la technologie, comme le suggère Suleyman, même s’il est utile de rappeler La loi d’Amara tel que défini par Roy Amara, ancien président de l’Institut pour le futur. Il a déclaré : « Nous avons tendance à surestimer l’effet d’une technologie à court terme et à sous-estimer son effet à long terme. »
Même si d’énormes quantités d’expérimentation et d’adoption rapide sont actuellement en cours, le succès généralisé n’est pas assuré. Comme Rumman Chowdhury, PDG et cofondateur de Humane Intelligence, une organisation à but non lucratif spécialisée dans les tests d’IA, déclaré: « Nous allons atteindre le creux de la désillusion en 2024. Nous allons nous rendre compte qu’il ne s’agit pas en réalité de cette technologie bouleversante qu’on nous a fait croire. »
2024 sera peut-être l’année où nous découvrirons à quel point cette situation est bouleversante. Entre-temps, la plupart des particuliers et des entreprises apprennent comment exploiter au mieux l’IA générative pour leur bénéfice personnel ou professionnel.
Julie Sweet, PDG d’Accenture, a déclaré dans un communiqué entretien que : « Nous sommes toujours dans un pays où tout le monde est très enthousiasmé par la technologie et ne se connecte pas à la valeur. » Le cabinet de conseil organise actuellement des ateliers à l’intention des dirigeants de la suite C pour en savoir plus sur la technologie en tant qu’étape critique vers la réalisation du potentiel et le passage du cas d’utilisation à la valeur.
Ainsi, les bénéfices et les impacts les plus néfastes de l’IA (et de l’AGI) peuvent être imminents, mais pas nécessairement immédiats. En naviguant dans le paysage complexe de l’IA, nous nous trouvons à la croisée des chemins où une gestion prudente et un esprit d’innovation peuvent nous guider vers un avenir où la technologie de l’IA amplifie le potentiel humain sans sacrifier notre intégrité et nos valeurs collectives. Il nous appartient d’exploiter notre courage collectif pour imaginer et concevoir un avenir où l’IA est au service de l’humanité, et non l’inverse.
Gary Grossman est vice-président directeur de la pratique technologique chez Edelmann et responsable mondial du centre d’excellence Edelman AI.
DataDecisionMakers
Bienvenue dans la communauté VentureBeat !
DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.
Si vous souhaitez en savoir plus sur des idées de pointe et des informations à jour, sur les meilleures pratiques et sur l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.
Vous pourriez même envisager contribuer à un article ton propre!