L’IA ne menace pas l’humanité. Ses propriétaires le font
Nous ne devrions pas avoir peur que l’IA prenne le dessus sur l’humanité ; nous devrions craindre le fait que notre humanité n’a pas suivi le rythme de notre technologie
En avril un procès a révélé que le mode de navigation privée de Google Chrome, connu sous le nom de « Incognito », était pas vraiment aussi privé comme on pourrait le penser. Google collectait toujours des données, dont il dispose désormais accepté de détruireet sa navigation « privée » n’empêche pas les sites Web ou votre fournisseur de services Internet, comme Comcast ou AT&T, de suivre vos activités.
En fait, cette collecte d’informations est l’ensemble modèle d’affaires de notre numérique et appareil intelligent-un monde compatible. Toutes nos habitudes et comportements sont surveillés, réduits à «données » pour apprentissage automatique IA, et les résultats sont utilisés pour nous manipuler pour le bénéfice des autres.
Il ne doit pas nécessairement en être ainsi. L’IA pourrait être utilisée plus éthique pour le bénéfice de tous. Nous ne devrions pas craindre l’IA en tant que technologie. Nous devrions plutôt nous inquiéter de savoir à qui appartient l’IA et comment ses propriétaires l’utilisent pour envahir la vie privée et éroder la démocratie.
Sur le soutien au journalisme scientifique
Si vous appréciez cet article, pensez à soutenir notre journalisme primé en s’abonner. En achetant un abonnement, vous contribuez à assurer l’avenir d’histoires percutantes sur les découvertes et les idées qui façonnent notre monde d’aujourd’hui.
Il n’est pas surprenant que les entreprises technologiques, les entités étatiques, les sociétés et autres intérêts privés envahissent de plus en plus notre vie privée et nous espionnent. Les compagnies d’assurance surveillent les appareils d’apnée du sommeil de leurs clients pour refuser la couverture pour une utilisation inappropriée. Les jouets pour enfants espionnent la récréation et collecter des données à propos nos enfants. Applications de suivi des règles partager avec Facebook et d’autres tiers (y compris les autorités de l’État dans les États où l’avortement est restreint) lors du dernier rapport sexuel d’une femme, leurs pratiques contraceptives, les détails menstruels et même leur humeur. Caméras de sécurité à domicile surveillent les clients et sont vulnérables aux pirates informatiques. Applications médicales partager des informations personnelles avec des avocats. Courtiers en donnéesles entreprises qui suivent les personnes sur toutes les plateformes et technologies, amplifient ces intrusions en vendant des profils d’utilisateurs groupés à quiconque est prêt à payer.
Cet espionnage explicite est évident et semble erroné à un niveau viscéral. Ce qui est encore plus sinistre, cependant, c’est la façon dont les données qui en résultent sont utilisées : non seulement vendues aux annonceurs ou tout intérêt privé qui cherche à influencer notre comportementmais déployé pour la formation à l’IA afin d’améliorer apprentissage automatique. Potentiellement, cela pourrait être une bonne chose. L’humanité pourrait en apprendre davantage sur elle-même, découvrir nos défauts et comment nous pourrions y remédier. Cela pourrait aider les individus à obtenir de l’aide et à répondre à leurs besoins.
Au lieu de cela, l’apprentissage automatique est utilisé pour prédire et prescrire, c’est-à-dire estimer qui nous sommes et les choses qui seraient les plus susceptibles de nous influencer et de changer notre comportement. L’un de ces comportements est de savoir comment nous amener à « nous impliquer » davantage dans la technologie et à générer plus de données. L’IA est utilisée pour essayer et nous connaissons mieux que nous-mêmesnous amener accro à la technologieet nous impacter sans notre connaissance, notre consentement ou notre meilleur intérêt à l’esprit. En d’autres termes, l’IA n’aide pas l’humanité à combler ses lacunes, elle exploite nos vulnérabilités pour que les intérêts privés puissent guider notre façon de penser, d’agir et de ressentir.
Un lanceur d’alerte de Facebook a tout dit clairement il y a plusieurs années. À atteindre ses objectifs de revenus, la plateforme a utilisé l’IA pour garder les gens sur la plateforme plus longtemps. Cela signifiait trouver la quantité parfaite de contenus incitant à la colère et provocateurs, afin que l’intimidation, les complots, les discours de haine, la désinformation et d’autres communications nuisibles ont prospéré. Expérimentant sur les utilisateurs à leur insu, l’entreprise conçu des fonctionnalités addictives dans la technologiemême si je sais que cela adolescentes blessées. Un rapport des Nations Unies a qualifié Facebook de «instrument utile» pour avoir répandu la haine dans un tentative de génocide au Myanmaret la société a admis le rôle de la plateforme en amplifiant la violence. Les entreprises et autres intérêts peuvent ainsi utiliser l’IA pour connaître nos faiblesses psychologiques, nous inviter à la version la plus précaire de nous-mêmes et appuyer sur nos boutons pour atteindre les objectifs qu’ils souhaitent.
Ainsi, lorsque nous utilisons nos téléphones, ordinateurs, systèmes de sécurité domestique, appareils de santé, montres intelligentes, voitures, jouets, assistants domestiques, applications, gadgets et autres, ils nous utilisent également. Pendant que nous cherchons, nous sommes fouillés. Alors que nous racontons nos vies sur les réseaux sociaux, nos histoires et nos défilements sont capturés. Même si nous nous sentons libres et en contrôle, nous sommes subtilement guidés (ou « poussés » dans un langage technologique bienveillant) vers des idées et des résultats contraints. Sur la base de comportements antérieurs, on nous propose une offre flatteuse et hyperindividualisé monde qui amplifie et confirme nos préjugés, en utilisant nos propres intérêts et personnalités contre nous pour nous inciter à revenir pour en savoir plus. Utiliser l’IA de cette manière peut être bon pour les affaires, mais c’est désastreux pour l’empathie et les délibérations éclairées nécessaires à la démocratie.
Même si les entreprises technologiques nous demandent d’accepter les cookies ou demandent tardivement notre consentement, ces efforts ne sont pas faits de bonne foi. Ils nous donnent un illusion d’intimité même si « l’amélioration » des services des entreprises repose sur le fait que les machines en apprennent davantage sur nous que nous n’en savons nous-mêmes et trouvent des modèles de comportement qui personne ne savait qu’ils cherchaient. Même les développeurs d’IA je ne sais pas comment ça marche exactementet ne peut donc pas nous dire de manière significative à quoi nous consentons.
Dans le cadre du modèle économique actuel, les progrès de l’IA et de la technologie robotique enrichiront quelques-uns tout en rendant la vie plus difficile au plus grand nombre. Bien sûr, on pourrait affirmer que les gens bénéficieront des progrès potentiels (et les économistes passionnés par l’industrie technologique le soutiendront sans aucun doute) en matière de santé, de conception et de toute efficacité que l’IA pourrait apporter. Mais cela a moins de sens lorsque les gens ont été privés de leur dignité, accusés de ne pas suivre le rythme et continuellement espionnés et manipulés pour le bénéfice d’autrui.
Nous ne devrions pas avoir peur que l’IA prenne le dessus sur l’humanité ; nous devrions craindre le fait que notre humanité n’a pas suivi le rythme de notre technologie. Au lieu de créer un monde dans lequel nous travaillons moins et vivons plus, les milliardaires ont conçu un système pour récompenser quelques-uns au détriment du plus grand nombre. Même si l’IA a fait et continuera de faire de grandes choses, elle a également été utilisée pour rendre les gens plus anxieux, précaires et égocentriques, ainsi que moins libres. Jusqu’à ce que nous apprenions vraiment à nous soucier les uns des autres et à considérer le bien de tous, la technologie continuera de nous prendre au piège au lieu de nous émanciper. Il n’y a rien de tel que l’éthique artificielle, et les principes humains doivent guider notre technologie, et non l’inverse. Cela commence par se demander à qui appartient l’IA et comment elle pourrait être utilisée dans le meilleur intérêt de tous. L’avenir nous appartient à tous.
Il s’agit d’un article d’opinion et d’analyse, et les opinions exprimées par l’auteur ou les auteurs ne sont pas nécessairement celles de Américain scientifique.