L’un des sujets abordés au GamesBeat Summit était la prévalence et le potentiel de l’IA dans la sphère du jeu, en particulier Discours de Will Wright sur l’avenir de l’IA dans le développement de jeux. Une autre discussion sur le sujet a eu lieu avec Kim Kunes, vice-président de la confiance et de la sécurité des jeux chez Microsoft, qui a eu une conversation au coin du feu avec moi sur l’utilisation de l’IA dans la sphère de la confiance et de la sécurité. Selon Kim, l’IA ne remplacera jamais les humains dans la protection des autres humains, mais elle peut être utilisée pour atténuer les dommages potentiels causés aux modérateurs humains.
Kunes a déclaré qu’il y avait beaucoup de nuances dans la sécurité des joueurs, car il y avait beaucoup de nuances dans l’interaction humaine. Les fonctionnalités de sécurité actuelles de Xbox incluent des normes de sécurité et des fonctionnalités de modération proactive et réactive. Le dernier rapport de transparence de Xbox montre qu’il a ajouté certaines fonctionnalités basées sur l’IA telles que la correspondance de modèles d’image et l’étiquetage automatique, toutes deux conçues pour détecter le contenu toxique en identifiant des modèles basés sur un contenu toxique précédemment étiqueté.
L’une des questions concernait l’utilisation de l’IA avec les humains, et Kunes a déclaré qu’elle peut aider à protéger et à aider les modérateurs humains qui autrement seraient trop absorbés par un travail chargé pour résoudre des problèmes plus importants : « Cela permet à nos modérateurs humains de se concentrer sur ce qui les intéresse. l’essentiel : améliorer leurs environnements à grande échelle au fil du temps. Avant, ils n’avaient pas autant de temps pour se concentrer sur les aspects les plus intéressants où ils pouvaient réellement utiliser leurs compétences. Ils étaient trop occupés à examiner encore et encore les mêmes types de contenus toxiques ou non toxiques. Cela a également un impact sur leur santé. Il existe donc une grande relation symbiotique entre l’IA et les humains. Nous pouvons laisser l’IA se charger de certaines de ces tâches qui sont soit trop banales, soit retirer une partie du contenu toxique résultant d’une exposition répétée aux humains.
Kunes a également déclaré catégoriquement que l’IA ne remplacera jamais les humains. « Dans le domaine de la sécurité, nous n’arriverons jamais au point où nous éliminerons les humains de l’équation. La sécurité n’est pas quelque chose que nous pouvons définir, oublier et revenir un an plus tard pour voir ce qui s’est passé. Ce n’est absolument pas ainsi que cela fonctionne. Nous devons donc avoir au cœur de nous ces humains qui sont des experts en modération et en sécurité.