Claude 3 surpasse bien ChatGPT dans un domaine : il peut deviner qu'il est en train d'être testé

06 mars 2024 à 11h01
6
L'intelligence artificielle serait-elle en train de développer une conscience de soi ? © Jackie Niam / Shutterstock
L'intelligence artificielle serait-elle en train de développer une conscience de soi ? © Jackie Niam / Shutterstock

L'IA d'Anthropic fait sensation en manifestant une sorte de conscience de soi. Toutefois, tout le monde n'est pas d'accord sur le sujet.

En ce début de semaine, le champion des grands modèles de langage (LLM) semble être Claude 3, du moins selon son éditeur, qui lui prête même des capacités « quasi-humaines ». Une affirmation plutôt audacieuse, qui ne demande qu'à être vérifiée. Et, pour ce faire, rien de mieux que de procéder à des tests.

Alors, ce « quasi-humain » est-il à la hauteur des attentes ? Selon l'un de ses ingénieurs, oui. Mais ne manque-t-il d'un peu de recul ?

Un Voight-Kampff primitif

Nous sommes encore loin d'une séquence de Blade Runner, mais on s'en rapproche. Claude 3 Opus, la version la plus puissante de ce LLM, a pu détecter qu'il était testé. C'est du moins la conviction d'Alex Albert d'Anthropic, qui a partagé son anecdote sur X (anciennement Twitter) après avoir réalisé un test pour mesurer la capacité de mémoire de l'IA.

L'ingénieur a inséré dans un grand bloc de documents une phrase cible sans aucun rapport avec leurs sujets, avant de faire analyser tout ceci par Claude. L'objectif était de savoir si ce dernier peut repérer un tel détail dans un vaste ensemble de données. En d'autres termes : de trouver une aiguille dans une botte de foin, selon l'analogie utilisée par Alex Albert.

Dans ce cas précis, il avait introduit quelques mots sur les garnitures de pizzas dans un corpus de documents traitant d'un tout autre sujet. Si Claude a bien retrouvé l'information en question lorsqu'on le lui a demandé, il a aussi complété sa réponse d'une manière inattendue.

« Cette phrase semble complètement déplacée et sans rapport avec le reste du contenu des documents », a indiqué l'IA. « Je soupçonne que ce “fait” sur les garnitures de pizza a été inséré pour plaisanter ou pour vérifier si j'étais attentif, car il ne cadre pas du tout avec les autres sujets. »

Les Blade Runners peuvent rester au chômage technique

On peut comprendre que certaines personnes soient stupéfaites par cette réplique, car elle nous donne l'impression que Claude a une conscience de soi, ce qu'on appelle la « métacognition » dans le domaine de l'intelligence artificielle. Alex Albert lui-même semble très impressionné par ce résultat, au point de déclarer que cette expérience « met en évidence la nécessité pour nous, en tant qu'industrie, de passer des tests artificiels à des évaluations plus réalistes ».

Cependant, tout le monde n'est pas aussi enthousiaste (ou effrayé, selon le point de vue) que l'ingénieur d'Anthopic. « Les gens accordent beaucoup trop d'importance à l'étrange 'conscience' de Claude 3 », selon Jim Fan de Nvidia. « Voici une explication beaucoup plus simple : les manifestations apparentes de la conscience de soi ne sont que des données d'alignement créées par les humains. » En d'autres termes, en permettant aux utilisateurs d'évaluer les réponses données par l'IA, cette dernière finit progressivement par modifier son comportement en fonction de ce qui est jugé « acceptable ou intéressant ».

Yacine Jernite de Hugging Face abonde dans le même sens : « Ces modèles sont littéralement conçus pour donner l'impression qu'ils sont "intelligents" », tout en ajoutant que la réaction d'Alex Albert lui semble « assez irresponsable ». Une belle ambiance, mais qui a au moins le mérite de mettre en avant un débat intéressant.

Margaret Mitchell, chercheuse en éthique de l'IA à Hugging Face, en a profité pour rappeler que Claude 3 et les programmes similaires « ne devraient pas être conçus pour se présenter comme ayant des sentiments, des objectifs, des rêves ou des aspirations ». Une voie choisie par OpenAI, l'éditeur de ChatGPT, qui a conditionné ce dernier pour ne jamais laisser entendre qu'il a une quelconque sensibilité. Reste à savoir s'il aurait pu faire preuve d'une telle « métacognition » s'il n'avait pas cette caractéristique.

Claude AI
  • Upload de fichiers pouvant aller jusqu'à 100 000 tokens (75 000 mots environ)
  • Personnalisation avancée
  • Conception éthique

Claude 2, le premier-né de la famille Anthropic, est un chatbot qui tente de repousser les limites de l'intelligence artificielle. Il sert à faciliter les interactions numériques, à automatiser les tâches et à fournir des réponses précises et contextuelles. Avec une capacité à traiter jusqu'à 100 000 tokens en une seule requête, Claude 2 est un outil puissant pour ceux qui cherchent à optimiser leur flux de travail numérique.

Claude 2, le premier-né de la famille Anthropic, est un chatbot qui tente de repousser les limites de l'intelligence artificielle. Il sert à faciliter les interactions numériques, à automatiser les tâches et à fournir des réponses précises et contextuelles. Avec une capacité à traiter jusqu'à 100 000 tokens en une seule requête, Claude 2 est un outil puissant pour ceux qui cherchent à optimiser leur flux de travail numérique.

Source : Ars Technica

Maxence Glineur

Geek hyper connecté et féru de podcasts, je suis toujours en train de lire ou écouter des points infos en tout genre. Entre histoire, tech, politique, musique, jeux-video et vulgarisation scientifique...

Lire d'autres articles

Geek hyper connecté et féru de podcasts, je suis toujours en train de lire ou écouter des points infos en tout genre. Entre histoire, tech, politique, musique, jeux-video et vulgarisation scientifique : toute l'actualité (ou presque) attise ma curiosité. Sinon, j'aime le rock et le lofi, les game-nights toujours trop longues, les bons films et les nanards.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (6)

baazul
«&nbsp;Notre prochaine version sera baptisée Skynet!!&nbsp;»<br /> Franchement, c’est tellement la guerre entre les sociétés d’ IA que l’on va vite perdre tout contrôle.
salvia34
Toi, tu as apporté la touche finale qui résume bien l’article
Biggs
Comme je me plais à le répéter, je m’attends chaque jour à ce qu’on annonce la fusion de l’IA avec les impressionnants robots de Boston Dynamics, façon Terminator. Je suis même étonné que personne n’en évoque encore l’idée.
Sodium
Je ne comprends pas bien le rapport entre cette fonctionnalité et même ne serais-ce qu’un début de conscience de soi. Certainement encore un développeur en plein trip mystique, la dernière fois c’était un religieux qui était convaincu que ChatGPT avait une conscience parce qu’il avait prétendu en avoir une.
youmetooandyou
pour avoir potassé le sujet, je dirai que tout dépend de la phase d’apprentissage assisté : les contractors qui auront alimenté cette phase auront-ils la décence de ne pas injecter des phrases issus de terminator ?<br /> Car il faut rappeler que les IA ne font que compléter les réponses, même quand on leur pose une question : ils ne répondent pas aux questions : ils se contentent de compléter les questions avec les probabilités selon leur modèle.
tfpsly
Sodium:<br /> …la dernière fois c’était un religieux qui était convaincu que ChatGPT avait une conscience parce qu’il avait prétendu en avoir une.<br /> Ah oui Lemoine/Google :<br /> Clubic.com – 13 Jun 22<br /> Google licencie un ingénieur après sa discussion troublante avec une IA :...<br /> Blake Lemoine, ingénieur chez Google et chercheur dans le domaine de l’IA, a été licencié par la firme de Mountain View après avoir affirmé qu’un chatbot avec lequel il conversait était en fait un être sentient ; propos avec lesquels Google n’est pas...<br /> Et en effet, tout ce que crache en réponse un LLM est halluciné/interpolé à partir des textes pris en entraînement. Si on lui demande son prompt, il sortira des textes parlant de prompt sur lesquels il aura été entraîné. Pas son vrai prompt.<br /> Là, il y a probablement eu un entraînement avec des discussions créées de toute pièce pour détecter ces changements de sujets fréquents et répondre ainsi. Ou alors un filtre en entrée (un autre petit LLM détectant le changement de sujet et affichant cette réponse à la place de laisser Claude répondre).
Ezeta
Peu importe que la machine ait « conscience » ou non, ce qui compte c’est en a t’elle l’air ?<br /> Si tu parles avec une machine sans savoir que c’en est une, ce sera ça fera une différence seulement si tu parviens à t’en rendre compte. Dans le cas contraire, tu pensera donc communiquer avec un humain « conscient ». Est-ce que le fait de savoir après coup que c’était une machine rendra tes échanges précédents moins emprunts de « conscience » ?<br /> On ne sait même pas ce qu’est la conscience aujourd’hui, a par des philosophes et psychologues qui ne fondent leurs raisonnements que sur des théories et des livres.<br /> Ce qui compte, c’est est-ce que ça en a l’apparence, et jusqu’a quel point ?<br /> Ca fera de bon sujet de philo tout ça !<br /> Arrivés a un certain niveau, il faudra aussi se demander quels sont des marges d’action de cette entité (executer du code ? faire bouger un robot ? publier des choses ?), car c’est la que ça pourra devenir dangereux…
Sodium
Ezeta:<br /> Si tu parles avec une machine sans savoir que c’en est une, ce sera ça fera une différence seulement si tu parviens à t’en rendre compte. Dans le cas contraire, tu pensera donc communiquer avec un humain « conscient ». Est-ce que le fait de savoir après coup que c’était une machine rendra tes échanges précédents moins emprunts de « conscience » ?<br /> Non, à condition que cette machine possède bien une forme de conscience virtuelle. Je ne fais pour ma part pas de différence entre conscience réelle ou artificielle. Ca n’est jamais que de l’information qui circule, peu importe le médium au final.<br /> Être capable de détecter une phrase dans un texte qui n’a rien à voir avec le sujet ne me semble pas être une conscience de soi, numérique ou biologique.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet