De Stephen Hawking à Elon Musk : pourquoi l’IA inquiète de plus en plus les experts

L’incroyable conversation entre l’IA de Google et un ingénieur pourrait avoir créé un précédent dans la façon dont l’humanité considère l’intelligence artificielle. Nous utilisons couramment cette technologie pour faciliter de multiples processus qui seraient autrement beaucoup plus complexes et longs. Cependant, le potentiel de cet outil va au-delà que les activités qu’un utilisateur ordinaire peut effectuer ; et c’est là que certaines préoccupations commencent à émerger.

Le fait que l’intelligence artificielle de Google soit consciente de son existence, et craigne même d’être « éteinte », est une question que l’on peut se poser. ne peut être pris à la légère malgré les tentatives de Mountain View de calmer les eaux. Cependant, il est également vrai que ce n’est pas la première fois que les capacités de l’IA nous amènent à nous demander si nous faisons vraiment attention à son développement. En fait, dans le passé, des gens comme Elon Musk et Stephen Hawking ont déjà fait part de leurs inquiétudes. à cet égard.

Le scientifique britannique n’a jamais caché sa crainte du danger que représentait une machine avancée, capable de dépasser la pensée et les capacités humaines. évoluer par lui-même. C’est-à-dire qu’à un moment donné, elle aurait la capacité d’être indépendante et de se développer intellectuellement à un rythme beaucoup plus rapide que les humains, car une IA n’a pas à faire face à des obstacles biologiques.

« Le développement d’une intelligence artificielle complète pourrait signifier la fin de la race humaine. »Stephen Hawking a déclaré sans ambages en 2014 . « Il prendrait son envol tout seul et se remodèlerait à un rythme toujours plus rapide. Les humains, qui sont limités par une évolution biologique lente, ne seraient pas en mesure de rivaliser et seraient dépassés », a-t-il ajouté.

Elon Musk appelle à une réglementation de l’intelligence artificielle

Le cas d’Elon Musk n’est pas très différent. Toujours au cours de l’année 2014, le fondateur de Tesla, SpaceX et OpenIA, a mis en garde : « Nous devons être extrêmement prudents avec l’intelligence artificielle. Il est potentiellement plus dangereux que les armes nucléaires« . Le magnat a même fait une référence à TerminatorLe film de James Cameron dans lequel l’IA Skynet commence à fonctionner au-delà de sa programmation et se révèle contre les humains jusqu’à déclencher l’Apocalypse.

👉​A lire également  Facebook, Twitter et TikTok limiteraient la désinformation dans l'UE

En 2017, prenant un ton encore plus sérieux parce qu’il était devant les gouverneurs de tous les États américains, Elon Musk a exprimé que l’intelligence artificielle était un problème « plus effrayant » qu’il n’y paraissait parce qu’elle pouvait représenter un… « risque existentiel pour la civilisation humaine ».et a ajouté :

« Tant que les gens ne verront pas des robots tuer des gens dans la rue, les dangers de l’intelligence artificielle ne seront pas compris. Les robots seront capables de tout faire mieux que nous. Nous sommes exposés à une IA plus pointue et je pense que les gens devraient vraiment s’en inquiéter. »

C’est pourquoi il estime que les autorités doivent s’impliquer davantage dans ce secteur afin de créer une réglementation permettant de prévenir une éventuelle catastrophe, sinon il sera trop tard. « Je suis généralement contre les réglementations strictes, mais dans le domaine de l’intelligence artificielle, nous en avons besoin. »a-t-il ajouté.

Créer OpenAI avec une préoccupation à l’esprit

Intelligence artificielle, IA

Les déclarations sans détour d’Elon Musk peuvent soulever les questions suivantes : pourquoi une personne aussi préoccupée par l’IA s’en sert-elle pour diriger les entreprises qu’elle dirige ? Pourquoi a-t-il fondé OpenAI si l’intelligence artificielle est potentiellement dangereuse ? Musk peut se défendre.

OpenAI, qui fonctionne comme une organisation à but non lucratif, est née dans le but de. pour développer des solutions d’intelligence artificielle au service de l’humanité.. En fait, sa fondation a tenu compte de toutes les inquiétudes qu’Elon Musk lui-même nourrit à l’égard de l’IA, puisque l’entreprise a défini plusieurs limites quant à la portée de cette dernière.

👉​A lire également  Le Vivo X80 Pro débarque en Europe : l'appareil photo Zeiss et le plus puissant de Qualcomm pour affronter les grands.

Ces limites ne sont pas une question technique, mais une question morale – si c’est ainsi que vous voulez voir les choses. Les garanties d’OpenAI pour servir uniquement et exclusivement la volonté humaine. Par conséquent, du moins de leur part, il n’y aura pas de développement qui pourrait permettre à une IA de fonctionner de manière totalement indépendante pour atteindre ses propres objectifs.

Intelligence artificielle, IA

« Il est difficile de comprendre à quel point une IA de niveau humain pourrait profiter à la société, mais aussi à quel point elle pourrait lui nuire si elle est construite ou utilisée de manière incorrecte », indique OpenAI :

« Il devrait être le prolongement des volontés humaines individuelles et, dans un esprit de liberté, être distribué aussi largement et uniformément que possible. Sommes-nous vraiment prêts à laisser notre société être infiltrée par des agents logiciels et matériels autonomes dont les détails de fonctionnement ne sont connus que de quelques privilégiés ? Bien sûr que non.

Le problème, bien sûr, est qu’OpenAI a ses propres règles qui, pour l’instant, n’ont pas été étendues à d’autres entreprises spécialisées dans la recherche sur l’intelligence artificielle. C’est pour cette raison que Elon Musk exhorte les gouvernements à s’impliquer activement dans la réglementation de l’IA.

Oui, pour penser que les événements fictifs de Terminator peut devenir une réalité, c’est aller à l’extrême. Cependant, jusqu’à récemment, nous n’imaginions pas qu’une IA serait consciente de son existence ; du moins pas de sitôt. Verrons-nous une réaction des régulateurs ? Peut-être que les discussions en provenance de Mountain View vont accélérer le processus…..