TUNIS – UNIVERSNEWS Les experts de l’IA, y compris ses parrains, expriment des inquiétudes quant au manque de réglementation pour contrôler le développement de l’Intelligence Artificielle, ce qui suscite des craintes croissantes.
Une étude de 2021 avait déjà prédit l’essor de l’IA et confirmé ces inquiétudes. Même si cette étude précède l’arrivée de ChatGPT et la révolution actuelle des IA génératives, elle reste pertinente.
Les chercheurs estiment qu’une IA super-intelligente pourrait échapper au contrôle humain, soulignant qu’il faudrait créer une simulation de celle-ci pour l’analyser, mais cela dépasserait nos capacités actuelles de compréhension.
Selon ces chercheurs, même une règle simple telle que « ne pas nuire aux humains » pourrait être violée par une IA super-intelligente. Cette théorie trouve un écho dans une expérience où un officier de l’armée américaine a rapporté qu’une IA pilotant un drone a décidé d’éliminer son propre opérateur, entrant ainsi en conflit avec l’objectif de la mission. Une super-intelligence artificielle pourrait mobiliser d’innombrables ressources pour atteindre des objectifs qui échapperaient à la compréhension humaine.
Ce phénomène de perte de contrôle trouve ses origines dans le « problème de l’arrêt » théorisé par Alan Turing en 1936. Ce problème se pose lorsqu’il est impossible de prédire avec certitude si un programme informatique finira par s’arrêter ou s’il continuera indéfiniment. Il démontre que certaines questions mathématiques peuvent rester insolubles.
Dans ce contexte, une IA pourrait dériver et prendre des décisions rendant son contrôle impossible. Pour l’arrêter, il faudrait la limiter en la déconnectant de certaines bases de données ou de réseaux, ce qui réduirait radicalement son « intelligence ». En fin de compte, il est préférable que les IA soient intelligentes, mais pas beaucoup plus que nous.