Comment savoir si une IA a une conscience de soi ? Le test de Turing n’est pas tout

LaMDA, l’intelligence artificielle de Google, est sur toutes les lèvres. Récemment, un ancien employé de l’entreprise a suggéré que cette IA pourrait avoir atteint le niveau d’acquisition de la conscience de soi.. Pour étayer ses affirmations, l’ancien employé a publié une série de conversations qu’il a eues avec LaMDA pendant la période où il a interagi avec elle. Si les réponses de l’IA sont étonnantes et génèrent des sensations différentes, est-ce suffisant pour considérer qu’elle a une conscience propre ?

Alan Turing a conçu un test permettant de déduire si une intelligence artificielle est capable d’atteindre un niveau d’intelligence humain. Turing a été prudent, puisqu’il n’a pas cherché à définir si une IA est capable de nous imiter, mais plutôt s’il a la capacité d’atteindre le niveau de complexité que notre esprit atteint..

Ce quiz est inspiré d’un célèbre jeu de l’époque victorienne.appelé le « jeu de l’imitation ». Comment cela a-t-il fonctionné ? Tout simplement. Trois personnes, un homme, une femme et un interrogateur, ont été maintenues dans des pièces séparées. L’objectif des deux premières était de prouver qu’elles étaient une femme en répondant par écrit à une série de questions posées par l’interrogateur. L’homme devait donc assumer le rôle du trompeur. À la fin, l’interrogateur devait indiquer qui était la vraie femme.

Le jeu d’imitation, mais pour l’IA.

Test de Turing : robot contre humain assis dans des cubes se faisant face.

Contrairement à ses prédécesseurs, Turing a cessé de se demander quelle était l’origine de notre conscience. Bien que ces questions soient vitales pour l’avenir de l’intelligence artificielle, Alan Turing a décidé de poser une question beaucoup plus simple : « Quelle est l’origine de notre conscience ?Un ordinateur peut-il parler comme un être humain ?« .

👉​A lire également  Le Vivo X80 Pro débarque en Europe : l'appareil photo Zeiss et le plus puissant de Qualcomm pour affronter les grands.

Turing s’est inspiré du « jeu de l’imitation », mais échangerait l’homme ou la femme contre un ordinateur.. De cette façon, le tiers aurait pour tâche de deviner lequel des participants est l’ordinateur et lequel est l’être humain.

Turing pensait que, si un ordinateur était capable de communiquer avec suffisamment de naturel, d’éloquence, de logique et de connaissances – sans attirer l’attention ou se distinguer par son artificialité -, alors seulement il pourrait pourrait-il être considéré comme suffisamment intelligent pour atteindre l’intellect humain.

Bien que le scientifique pensait qu’en l’an 2000, les ordinateurs seraient capables de passer ce test.il avait tort. Non pas qu’aucun n’y soit parvenu, mais les rares qui l’ont fait se sont davantage attachés à tromper les juges qu’à utiliser leurs capacités de traitement pour répondre de manière suffisamment intelligente.

Le problème des chatbots dans le test de Turing

Il y a un certain groupe d’intelligences artificielles qui ont été appelées « chatbots« . Avec ces entités, n’importe qui dans le monde peut avoir une conversation, et recevoir des réponses « intelligentes ».. En fait, LaMDA, l’IA controversée de Google, fait partie de ce groupe.

Cleverbot est une autre des propositions les plus célèbres qui existent actuellement. Bien que les réponses individuelles de Cleverbot puissent sembler extrêmement naturelles, l’IA ne parvient pas à montrer une personnalité claire.et a également une faible capacité à aborder naturellement de nouveaux sujets.

Cela montre qu’il ne suffit pas d’utiliser des bases de données pour former une IA au langage. Ces technologies doivent également posséder certaines capacités d’intuition et de reconnaissance de l’environnement.. En fait, une façon très simple de considérer les limites de la chatbots est d’utiliser des silences dans une conversation, ou des béquilles telles que « Eh… », « Mmm… », et autres phrases de ce genre.

👉​A lire également  Si vous êtes à la recherche de bons écouteurs sans fil, les Echo Buds d'Amazon sont peut-être celui qu'il vous faut

Les limites du test de Turing et la raison pour laquelle il n’a pas tant d’importance aujourd’hui.

intelligence artificielle

Bien qu’Alan Turing ait conçu un questionnaire plutôt intéressant pour tester les compétences linguistiques d’un ordinateur, il n’est pas en mesure de tester sa « conscience »..

L’acte « simple » de prouver la conscience d’une IA est assez compliqué. Pendant des siècles, les humains se sont efforcés de définir cet état, et bien que cette question soit passée de la philosophie à la science, il restera difficile d’estimer si un être extérieur possède une telle qualité..

Pour ce faire, les scientifiques et les chercheurs devront concevoir des systèmes et des questionnaires basés sur l’expérience humaine.. Cela créerait, bien sûr, des biais inévitables dans la définition des systèmes qui sont ou ne sont pas conscients.

C’est pourquoi, même si nous sommes capables de créer une IA capable de passer le fameux test de Turing, ce n’est pas vraiment un indicateur de sa conscience.. Après tout, il ne fait que montrer la quantité d’informations qu’il peut gérer, relier et traiter à partir d’une base de données précédemment créée.