L’IA, les jeux vidéo et l’environnement ?
Hier, dans le cade de la ROBOCUP23, Gamesplanet a été invitée à une table ronde du Forum Néo Aquitain sur l’IA et la Robotique dont l’intitulé était : « Comment produire décarboné grâce à l’IA et à la robotique ? »
L’occasion pour nous de rappeler que l’IA est déjà largement utilisée dans les jeux vidéo et permet d’ores et déjà, et depuis des années, de produire de meilleures expériences.
Voici quelques exemples permettant d’être très concret sur un sujet qui reste généralement assez hermétique :
• La génération procédurale : il s’agit de créer du contenu (niveaux, mondes, personnages, objets, etc.) de manière aléatoire ou semi-aléatoire à partir d’un ensemble de règles et de paramètres. Cette technique permet de créer des jeux plus vastes, plus diversifiés et plus renouvelables. C’est le cas avec No Man’s Sky par exemple et aussi ce que promet le futur Starfield.
• La simulation physique : il s’agit de reproduire le comportement des objets et des corps selon les lois de la physique (gravité, collision, friction, etc.). Cette technique permet de rendre les jeux plus réalistes, plus dynamiques et plus interactifs. C’est le cas avec Grand Theft Auto V par exemple.
• La reconnaissance vocale : il s’agit de permettre aux joueurs de contrôler le jeu ou de communiquer avec les personnages par la voix. Cette technique permet de rendre les jeux plus accessibles, plus intuitifs et plus immersifs. C’est le cas avec The Elder Scrolls V dans lequel il est possible d'utiliser la reconnaissance vocale de Kinect et d'utiliser plus de 200 commandes dont le fameux cri de dragon. La sélection d'objets et la navigation dans les menus peuvent également être assurée grâce à la voix.
• La synthèse vocale : il s’agit de générer des voix artificielles pour les personnages ou les narrateurs du jeu. Cette technique permet de créer des dialogues plus variés, plus personnalisés et plus adaptés au contexte. C’est le cas dans Tom Clancy’s The Division par exemple.
• La vision par ordinateur : il s’agit de permettre aux systèmes d’IA de reconnaître et d’analyser les images captées par une caméra ou un capteur. Cette technique permet de créer des jeux qui réagissent aux mouvements, aux expressions ou aux gestes des joueurs. Un bon exemple est Just Dance.
• Le natural language processing : il s’agit de permettre aux systèmes d’IA de comprendre et de générer du langage naturel écrit ou oral. Cette technique permet de créer des jeux qui proposent des dialogues plus riches, plus fluides et plus cohérents. Detroit: Become Human est un bon exemple.
• Le machine learning : il s’agit de permettre aux systèmes d’IA d’apprendre à partir des données et des expériences. Cette technique permet de créer des jeux qui s’adaptent au niveau, au style et aux préférences des joueurs. C’est le cas dans Alien: Isolation par exemple.
• Le deep learning : il s’agit d’une forme avancée de machine learning qui utilise des réseaux de neurones artificiels pour traiter des données plus complexes. Cette technique permet de créer des jeux qui offrent des graphismes plus détaillés, des animations plus fluides et des effets sonores plus réalistes. C’est le cas de Death Stranding par exemple.
Pour résumer de manière un peu simpliste, derrière l’IA, il y a essentiellement la capacité de stocker et traiter une grande quantité de données dans un réseau neuronale virtuel pour ensuite effectuer des statistiques très sophistiqués qui vont permettre de proposer des solutions à des problèmes jugés complexes, essentiellement en utilisant des situations passées plus ou moins similaires.
Ces technologies emportent avec elles à la fois des opportunités et de nouvelles menaces…
Le futur Artificial Intelligence Act européen, qui devrait bientôt voir le jour, proposera de classer les systèmes d’IA en fonction du risque qu’ils présentent pour les utilisateurs et la société, et d’établir des obligations pour les fournisseurs et les utilisateurs en conséquence.
A ce titre, les exemples cités plus haut, utilisés par les jeux vidéo dans un cadre d’expression culturelle, sont censés présenter un risque minime et devraient ne pas être réglementés ou simplement soumis à des codes de conduite. En revanche, les systèmes d’IA qui présentent un risque inacceptable seront interdits, quand ceux qui présentent un risque élevé seront soumis à des exigences strictes.
Fin 2021, l’Unesco a publié une norme sur l’éthique des systèmes d’intelligence artificielle qu’on peut essayer de résumer en 3 points clefs:
Il faut pouvoir limiter le pouvoir décisionnel de l’IA : en gros, dans les cas où les décisions sont considérées comme ayant un impact irréversible ou difficile à modifier, ou qui pourraient impliquer des décisions de vie et de mort, la décision finale devrait être prise par l’homme. Cela revient par exemple à exclure l’IA pour la surveillance de masse et la notation sociale.
A titre d'illustration, dans le jeu vidéo Stellaris, The Machine Age, les développeurs mettent en scène l'idée d'une IA puissante qui se retourne contre ses créateurs, non pas de façon violente ou destructrice, mais à cause d'une appréciation erronée de sa mission consistant à "éliminer la souffrance". Même approche mais ouverte avec un jeu comme Heart of the Machine.Il faut des IA transparentes, explicables et interprétables : En écho à l’inquiétude suscitée par le côté « boîte noire » des algorithmes de l’IA, il est nécessaire de rendre les bases de données à partir desquelles les algorithmes réalisent leur apprentissage plus « représentatives, c’est-à-dire diversifiées ». Quant aux données personnelles des utilisateurs, elles se doivent d’être protégées dans un cadre garantissant notamment « la transparence » et « la possibilité d’accéder à leurs données personnelles dans les systèmes d’IA et de les effacer ».
Il faut réduire l’empreinte environnementale des IA : comme toutes les infrastructures informatiques, les bases de données des systèmes d’IA consomment des ressources et émettent des gaz à effet de serre. Pour réduire la consommation électrique et le nombre de serveurs, il faut privilégier les modèles pré-entraînés (ce qui évite d’entraîner le même modèle plusieurs fois) ; regarder le ratio précision de l’algorithme / bilan carbone et choisir celui qui pollue le moins, ou encore, en fonction des besoins du cas d’usage ; éviter de stocker toutes les données et privilégier, une fois de plus, la qualité des données à la quantité. Toutes ces règles de bon sens se retrouvent dans les référentiels de numérique responsable au sens large.
En réalité, comme pour l’informatique en général, l’IA est à cheval entre les concepts de « IT for Green » (l’informatique, et partant l’IA, sont pourvoyeurs de solutions en matière environnementale) et de « Green IT » (l’informatique, et partant l’IA, doivent se réinventer pour être plus sobres en matière de ressources consommées, d’émission de gaz a effet de serre ou de pollution).
A ce titre, il est intéressant de noter que l'Ademe a réalisé un exercice de prospective inédit, publié dans un rapport Transition(s) 2050, afin de déterminer quatre chemins de transition contrastés conduisant la France vers la neutralité carbone à l'horizon 2050.
Le scénario 4, « Pari Réparateur », fait la part belle à l’IA et aux technologies numériques susceptibles d’optimiser les productions et de décarboner. Comme son nom l’indique, c’est un pari, qu’il ne convient pas de faire sans, en parallèle, chercher à réduire un tant soit peu la voilure de nos émissions.
Vous pouvez consulter l’ensemble de notre réflexion sur ce sujet à cette adresse.