Pour donner aux femmes universitaires et autres personnes spécialisées dans l’IA le temps bien mérité – et attendu – sous les projecteurs, TechCrunch lance une série d’entretiens se concentrant sur les femmes remarquables qui ont contribué à la révolution de l’IA.
Sarah Bitamazire est directrice des politiques du cabinet de conseil Lumiera, où elle participe également à la rédaction du bulletin d’information Lumiera Loop, qui se concentre sur la maîtrise de l’IA et son adoption responsable.
Avant cela, elle a travaillé comme conseillère politique en Suède, axée sur l’égalité des sexes, la législation relative aux affaires étrangères et les politiques de sécurité et de défense.
En bref, comment avez-vous débuté dans l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?
L’IA m’a trouvé ! L’IA a un impact de plus en plus important dans les secteurs dans lesquels je suis profondément impliqué. Comprendre la valeur de l’IA et ses défis est devenu impératif pour moi afin de pouvoir offrir des conseils judicieux aux décideurs de haut niveau.
Premièrement, dans le domaine de la défense et de la sécurité, où l’IA est utilisée dans la recherche et le développement et dans la guerre active. Deuxièmement, dans le domaine des arts et de la culture, les créateurs ont été parmi les groupes qui ont été les premiers à percevoir la valeur ajoutée de l’IA, ainsi que les défis à relever. Ils ont contribué à mettre en lumière les problèmes de droit d’auteur qui sont apparus, comme l’affaire en cours dans laquelle plusieurs quotidiens poursuivent OpenAI en justice.
Vous savez que quelque chose a un impact énorme lorsque des dirigeants ayant des parcours et des problèmes très différents demandent de plus en plus à leurs conseillers : « Pouvez-vous m’informer à ce sujet ? Tout le monde en parle. »
De quel travail êtes-vous le plus fier dans le domaine de l’IA ?
Nous avons récemment travaillé avec un client qui avait essayé, sans succès, d’intégrer l’IA dans ses activités de recherche et développement. Lumiera a mis en place une stratégie d’intégration de l’IA avec une feuille de route adaptée à ses besoins et défis spécifiques. La combinaison d’un portefeuille de projets d’IA organisé, d’un processus de gestion du changement structuré et d’un leadership qui a reconnu la valeur de la réflexion multidisciplinaire a fait de ce projet un énorme succès.
Comment relever les défis de l’industrie technologique à prédominance masculine et, par extension, de l’industrie de l’IA à prédominance masculine ?
En étant très clair sur le pourquoi. Je suis activement engagé dans l’industrie de l’IA car il y a un objectif plus profond et un problème à résoudre. La mission de Lumiera est de fournir des conseils complets aux dirigeants leur permettant de prendre des décisions responsables en toute confiance à l’ère technologique. Ce sentiment d’utilité reste le même quel que soit l’espace dans lequel nous évoluons. Dominée ou non par les hommes, l’industrie de l’IA est énorme et de plus en plus complexe. Personne ne peut avoir une vue d’ensemble et nous avons besoin de plus de perspectives pour pouvoir apprendre les uns des autres. Les défis qui existent sont énormes et nous devons tous collaborer.
Quels conseils donneriez-vous aux femmes qui souhaitent se lancer dans le domaine de l’IA ?
Se lancer dans l’IA, c’est comme apprendre une nouvelle langue ou acquérir de nouvelles compétences. L’IA a un potentiel immense pour résoudre des problèmes dans divers secteurs. Quel problème souhaitez-vous résoudre ? Découvrez comment l’IA peut être une solution, puis concentrez-vous sur la résolution de ce problème. Continuez à apprendre et entrez en contact avec des personnes qui vous inspirent.
Quels sont les problèmes les plus urgents auxquels l’IA est confrontée à mesure de son évolution ?
La rapidité avec laquelle l’IA évolue est un problème en soi. Je pense que poser cette question souvent et régulièrement est un élément important pour pouvoir naviguer dans l’espace de l’IA avec intégrité. Nous faisons cela chaque semaine à Lumiera dans notre newsletter.
En voici quelques-uns qui nous viennent à l’esprit en ce moment :
- Matériel d’IA et géopolitique: Les investissements du secteur public dans le matériel d’IA (GPU) augmenteront très probablement à mesure que les gouvernements du monde entier approfondiront leurs connaissances en matière d’IA et commenceront à prendre des mesures stratégiques et géopolitiques. Jusqu’à présent, il y a des mouvements en provenance de pays comme le Royaume-Uni, le Japon, les Émirats arabes unis et l’Arabie saoudite. C’est un espace à surveiller.
- Benchmarks de l’IA: Alors que nous continuons à nous appuyer davantage sur l’IA, il est essentiel de comprendre comment nous mesurons et comparons ses performances. Choisir le bon modèle pour un cas d’utilisation donné nécessite une réflexion approfondie. Le modèle le mieux adapté à vos besoins n’est pas nécessairement celui qui figure en haut d’un classement. Étant donné que les modèles évoluent très rapidement, la précision des références fluctue également.
- Équilibrer l’automatisation avec la surveillance humaine:Croyez-le ou non, la surautomatisation est une réalité. Les décisions nécessitent un jugement humain, de l’intuition et une compréhension contextuelle. Cela ne peut pas être reproduit par l’automatisation.
- Qualité et gouvernance des données: Où sont les bonnes données ?! Les données entrent, traversent et sortent des organisations chaque seconde. Si ces données sont mal gouvernées, votre organisation ne bénéficiera pas directement de l’IA. Et à long terme, cela pourrait être préjudiciable. Votre stratégie de données est votre stratégie d’IA. L’architecture, la gestion et la propriété du système de données doivent faire partie de la conversation.
Quels sont les problèmes dont les utilisateurs d’IA devraient être conscients ?
- Les algorithmes et les données ne sont pas parfaits:En tant qu’utilisateur, il est important de faire preuve d’esprit critique et de ne pas faire aveuglément confiance aux résultats, surtout si vous utilisez une technologie prête à l’emploi. La technologie et les outils qui la composent sont nouveaux et en constante évolution, alors gardez cela à l’esprit et faites preuve de bon sens.
- Consommation d’énergie:Les exigences de calcul pour la formation de grands modèles d’IA, combinées aux besoins énergétiques liés au fonctionnement et au refroidissement de l’infrastructure matérielle requise, entraînent une consommation d’électricité élevée. Gartner a prédit que d’ici 2030, l’IA pourrait consommer jusqu’à 3,5 % de l’électricité mondiale.
- Renseignez-vous et utilisez différentes sources: La maîtrise de l’IA est essentielle ! Pour pouvoir utiliser l’IA de manière judicieuse dans votre vie et au travail, vous devez être en mesure de prendre des décisions éclairées concernant son utilisation. L’IA doit vous aider à prendre des décisions, et non pas prendre des décisions à votre place.
- Densité de perspective:Vous devez impliquer des personnes qui connaissent très bien leur espace de problème afin de comprendre quel type de solutions peuvent être créées avec l’IA, et de le faire tout au long du cycle de vie de développement de l’IA.
- La même chose s’applique à l’éthique: Ce n’est pas quelque chose qui peut être ajouté « au-dessus » d’un produit d’IA une fois qu’il a déjà été construit : des considérations éthiques doivent être injectées dès le début et tout au long du processus de construction, en commençant par la phase de recherche. Cela se fait en menant des évaluations d’impact social et éthique, en atténuant les préjugés et en promouvant la responsabilité et la transparence.
Lors de la construction de l’IA, il est essentiel de reconnaître les limites des compétences au sein d’une organisation. Les lacunes sont des opportunités de croissance : elles vous permettent de prioriser les domaines dans lesquels vous devez faire appel à une expertise externe et de développer des mécanismes de responsabilisation solides. Des facteurs tels que les compétences actuelles, la capacité de l’équipe et les ressources monétaires disponibles doivent tous être évalués. Ces facteurs, entre autres, influenceront votre feuille de route en matière d’IA.
Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?
Tout d’abord, en tant qu’investisseur, vous souhaitez vous assurer que votre investissement est solide et qu’il dure dans le temps. Investir dans une IA responsable permet simplement de préserver les rendements financiers et d’atténuer les risques liés, par exemple, à la confiance, à la réglementation et aux préoccupations liées à la confidentialité.
Les investisseurs peuvent promouvoir une IA responsable en examinant les indicateurs de leadership et d’utilisation responsables de l’IA. Une stratégie d’IA claire, des ressources dédiées à l’IA responsable, des politiques publiées en matière d’IA responsable, des pratiques de gouvernance solides et l’intégration des retours de renforcement humain sont des facteurs à prendre en compte. Ces indicateurs doivent faire partie d’un processus de diligence raisonnable solide. Plus de science, moins de prise de décision subjective. Se désengager des pratiques d’IA contraires à l’éthique est une autre façon d’encourager des solutions d’IA responsables.