Alphazero s'améliore grandement aux échecs

Proposé par
le

Après avoir brillamment fait parler d'elle sur le jeu de Go, AlphaZero, la célèbre IA de Google, va peut-être révolutionner le jeu d'échec. En effet, elle a terrassé Stockfish, l'un des meilleurs moteurs d'échecs actuels (bien plus performant que les humains) de manière écrasante (28 victoires, 72 nulles, 0 défaite)

Selon les meilleurs joueurs d'échecs, elle a la particularité, en plus d'un pouvoir de calcul phénoménal, de pouvoir simuler une réflexion quasi humaine sur le plan stratégique, ce qui est une première pour ce type de machine.


Tous les commentaires (90)

a écrit : Pour vous répondre en plusieurs points :
+ Les Intelligences Artificielles ne savent absolument pas apprendre des choses toutes seules.
Ce qu'elles savent faire, c'est améliorer leurs connaissances sur un point précis grâce à des techniques mathématiques (on est quasiment plus dans l'informat
ique) telles que le deep learning ou les réseaux de neurones...
Par exemple, il existe aujourd'hui des IA de reconnaissance faciale très élaborées. Pour fonctionner correctement, elles ont d'abord été sous la tutelle d'un humain (ou d'un automate basique) qui leur a présenté des photos en leur indiquant la présence ou non d'un visage.
Dans un second temps, elles devaient trouver d'elles même un visage, toujours sous la tutelle d'un humain/automate.
Enfin, elles s'amélioraient en continu et en autonomie avec les images auxquelles elles ont accès.
Mais jamais, Ô grand jamais cette IA va d'elle-même se mettre à identifier des espèces de géraniums ou savoir jouer aux échecs !!!
D'ailleurs, si je vous lis bien, dans votre remarque sur les Captcha, c'est toujours l'humain qui apprend à l'IA en lui indiquant où sont les verres d'eau... L'IA saura donc identifier des verres d'eau... Mais pas en apprentissage autonome...

+ Comme l'a bien dit Shunya, les machines simulent, elles n'ont pas vraiment de sentiments. Elles paraissent tristes, mais ne connaissent pas le principe de la tristesse. Elles paraissent tristes parce que l'humain qui les a programmées s'est dit "si je lui fabrique un visage, que je lui donne une voix tremblotante et que je la fais pleurer, les autres humain auront de l'empathie". C'est tout.

+ "Les armées de robots" ?? Sérieusement ? Oui la Darpa a des projets innovants, mais faut pas pousser le bouchon, non plus...
Vous insinuez quoi ? Google = Skynet ??

Même si beaucoup de gens comme vous imaginent qu'une l'Intelligence Artificielle va se rebeller, dominer le monde et détruire toute forme d'opposition, n'oubliez pas que ces "objectifs" sont Humains. Qui vous dit qu'un jour, si on arrive à créer une vraie intelligence autonome, son but ne sera pas de s'exiler dans un coin tranquille pour faire pousser des oliviers ?
Afficher tout
Justement, concernant toujours ce verre d'eau. Quand on était petits, on nous a appris ce qu'était un verre d'eau, en nous en montrant un certain nombre. Maintenant, on sait ce que c'est sans pour autant avoir vu exactement le même en étant petit... on déduit que c'est un verre d'eau en sorte, et c'est exactement le but du Recaptcha... on montre quelque chose à la machine, elle tire des conclusions (comme nous), et ensuite elle peut reconnaitre des verres d'eau même si elle ne les a jamais vus. C'est donc la même intelligence qu'un enfant, et cette intelligence va par la suite évoluer pour devenir adulte...

Je ne connaissais pas le nom du programme des robots de google. Peut-être que ce n'est pas une "armée" à proprement parler, mais les robots ont des capacités physiques hors normes comparé aux humains, un robot pourrait en tuer des centaines facilement... sans compter que mélangé à l'intelligence artificielle, cela peut donner de mauvaises choses.

Enfin, je pense que toute forme intelligente cherche à établir un pouvoir sur les autres formes intelligentes inférieures... les robots sont actuellement inferieurs à nous, mais en quelques années ils ont plus progressé que nous en 10 000 ans ! Sur le plan émotionnel, nous en sommes loin mais c'est surement la prochaine étape, et quand ils n'auront plus la capacité émotionnelle d'une petite cuiller, ils pourront se rebeller si ils le souhaitent.

Le jour où une machine refusera de faire ce qu'on lui demande en prétextant qu'elle n'en à rien à f**tre de ce qu'on lui dit, on saura à cet instant que la machine a égalé l'homme.

a écrit : Pendant des décennies les grands maîtres des échecs étaient meilleurs que les machines... On disait que les ordis ne pourraient jamais complètement remplacer le cerveau humain, ses capacités de concevoir certains coups qu'un ordi ne serait pas capable de faire, les anticiper, etc... Et bien il semble que cette époque soit révolue. L'homme conçoit des machines bien plus performantes que lui désormais. Est-ce "jouer avec le feu" ? Afficher tout Bah! Bientôt Échec et Mat! Les humains c'est has-been ; croyez en l'I.A. !

a écrit : Pour vous répondre en plusieurs points :
+ Les Intelligences Artificielles ne savent absolument pas apprendre des choses toutes seules.
Ce qu'elles savent faire, c'est améliorer leurs connaissances sur un point précis grâce à des techniques mathématiques (on est quasiment plus dans l'informat
ique) telles que le deep learning ou les réseaux de neurones...
Par exemple, il existe aujourd'hui des IA de reconnaissance faciale très élaborées. Pour fonctionner correctement, elles ont d'abord été sous la tutelle d'un humain (ou d'un automate basique) qui leur a présenté des photos en leur indiquant la présence ou non d'un visage.
Dans un second temps, elles devaient trouver d'elles même un visage, toujours sous la tutelle d'un humain/automate.
Enfin, elles s'amélioraient en continu et en autonomie avec les images auxquelles elles ont accès.
Mais jamais, Ô grand jamais cette IA va d'elle-même se mettre à identifier des espèces de géraniums ou savoir jouer aux échecs !!!
D'ailleurs, si je vous lis bien, dans votre remarque sur les Captcha, c'est toujours l'humain qui apprend à l'IA en lui indiquant où sont les verres d'eau... L'IA saura donc identifier des verres d'eau... Mais pas en apprentissage autonome...

+ Comme l'a bien dit Shunya, les machines simulent, elles n'ont pas vraiment de sentiments. Elles paraissent tristes, mais ne connaissent pas le principe de la tristesse. Elles paraissent tristes parce que l'humain qui les a programmées s'est dit "si je lui fabrique un visage, que je lui donne une voix tremblotante et que je la fais pleurer, les autres humain auront de l'empathie". C'est tout.

+ "Les armées de robots" ?? Sérieusement ? Oui la Darpa a des projets innovants, mais faut pas pousser le bouchon, non plus...
Vous insinuez quoi ? Google = Skynet ??

Même si beaucoup de gens comme vous imaginent qu'une l'Intelligence Artificielle va se rebeller, dominer le monde et détruire toute forme d'opposition, n'oubliez pas que ces "objectifs" sont Humains. Qui vous dit qu'un jour, si on arrive à créer une vraie intelligence autonome, son but ne sera pas de s'exiler dans un coin tranquille pour faire pousser des oliviers ?
Afficher tout
Pour te répondre en un seul point : le fonctionnement du cerveau humain ce n'est jamais que des réactions chimiques (sauf bien sûr si on croit qu'il y a une âme en plus), certes en très grand nombre ce qui permet un résultat complexe mais il n'y a aucune raison pour que ce fonctionnement ne puisse pas être égalé et même dépassé et qu'une machine, sans avoir été programmée pour ça, commence à se poser des questions existentielles...

a écrit : Je ne crois pas que ce soit un danger, tant que les machines (ordinateurs, réseaux de neurones, etc.) n'ont pas conscience de leur existence à laquelle elles supposeraient une finalité.
Ce ne sont que des jouets maîtrisés par l'homme et/ou la femme (soyons politiquement corrects). Pour faire une divisio
n compliquée que je suis incapable de faire de tête, ni sur papier dans un délai raisonnable, ma calculatrice me donne un résultat instantané. Mais je n'ai aucune peur qu'elle me domine un jour. Afficher tout
Ok avec vous, étant joueur d'échecs avec un niveau modeste de 1800 elo. Les programmes d'échecs n'est qu'un système de calcul utilisant l'élagage alpha-beta. C'est comme si vous étiez émerveillé par la calculatrice calculant très rapidement des divisions avec une précision à 10 décimales or personne n'a peur de la calculatrice. Les programmes d'échecs utilisent des algorithmes mathématiques, ni plus ni moins. Comme pour le jeu de Go qui s'avère encore plus complexe que le jeu d'échecs. Après l'humain peut très bien donner à l'IA la possibilité de gérer des drones d'attaque. Là on pourra avoir peur.

a écrit : Il faut cependant nuancé le resultat car en raison des règles du tournoi, stockfish n'avait pas accès à sa base de données d'ouverture. Or, c'est sur l'ouverture que l'ordinateur est le moins bon car c'est le nombre de possibilités jusqu'à la fin de la partie est immense. Alpha zero maîtrisait bien mieux l'ouverture grâce à l'expérience accumulée pendant ses parties contre lui même.
Après pour avoir vu un certain nombre des parties, il vrai que alpha zero était vraiment impressionnant avec des sacrifices de pièces hallucinants.
Afficher tout
Je suis d'accord. L'utilisation d'une base d'ouverture pour stockfish aurait permis d'avoir un jeu plus équilibré. Car Stockfish à quand même 3400 elo. Comparer à Kasparov au meilleur de sa forme à plus de 2840 elo ou au suédois Magnus Carlsen le plus fort joueur actuellement qui ne pourra peut-être jamais atteindre les 3000 elo. De plus le format du jeu ne convenait pas à Stockfish, la cadence était de 1 minute par coup. Et enfin le Pc n'était pas le même. Et bien sûr au désavantage de Stockfish. Et enfin Stockfish n'utilisait pas de base de finale. Certes je suis d'accord que alphago est plus fort que stockfish sur le plan calcul brut mais le contexte a surtout joué en faveur de alphago zero.

a écrit : Alors, peut être que je me trompe mais il me semble que le jeu d’échec avait déjà été résolu depuis un moment par l’intelligence artificielle. On dit que le jeu est résolu quand on a trouvé la façon de gagner à coup sûr.
Et du coup, le jeu de go avait fait parlé de lui car justement, il avait pas encore été réso
lu mais l’intelligence artificielle avait trouvé des passes infaillible.
Il y a une vidéo de science étonnante sur l’intelligence artificielle dans le jeu de go qui en parle bien.
Du coup
Du coup, cette anecdote est en partie fausse puisque le jeu de go a été résolu après les échecs
Afficher tout
Le jeu d'échecs n'a pas été encore résolu bien qu'on s'en rapproche. Par contre le jeu de dames a été en effet résolu. Et il est prouvé qu'aux jeux de dames si les deux joueurs ou IA jouent à la perfection, le jeu se termine par une nulle. On pense que les échecs se termine de la même façon mais aucune IA ne l'a prouvé. Les grands maîtres aux échecs sont persuadés qu'une partie doit se terminer par une nulle bien que personne n'a le moyen de le prouver. Au jeu de Go, il s'avère encore plus complexe que les échecs. Les combinaisons dépassent les étoiles dans l'univers. Et bien sûr aucune IA n'a prouvé si les blancs gagnaient tout le temps ou que la partie devait se terminer par une nulle.

a écrit : Pour te répondre en un seul point : le fonctionnement du cerveau humain ce n'est jamais que des réactions chimiques (sauf bien sûr si on croit qu'il y a une âme en plus), certes en très grand nombre ce qui permet un résultat complexe mais il n'y a aucune raison pour que ce fonctionnement ne puisse pas être égalé et même dépassé et qu'une machine, sans avoir été programmée pour ça, commence à se poser des questions existentielles... Afficher tout Le cerveau est un organisme vivant. Comme absolument tous les organismes vivants sur cette planête depuis quelques milliards d'années, il cherche à survivre. Il réfléchit, innove, trouve des moyens d'assurer sa sécurité et trouve des moyens pour se nourrir.
Âme ou pas, les organismes vivants on des comportements spécifiques, parfois des niveaux de conscience sur le monde qui les entoure et sur leurs actions.
Une intelligence artificielle n'est pas vivante.
Elle ne se pose pas des question existentielle car elle ne sait pas qu'elle existe. Quand bien même vous serez sûr qu'elle a une conscience, ce ne sera qu'une illusion. Comme dit dans les précédents commentaires, ce sera une simulation de conscience plutôt qu'une véritable conscience.

Au final, peut être qu'un jour on arrivera à créer une intelligence artificielle similaire à un humain (parce que des IA, il en existe déjà énormément), mais il faudrait déjà comprendre la totalité des processus de notre propre cerveau, et c'est pas gagné.
On aura beau avoir des ordinateurs avec une puissance infinie, c'est pas la puissance qui programme l'IA, c'est des programmeurs, des humains !
Et enfin, par rapport au scénario Terminator... C'est un film. C'est pour faire peur.

a écrit : Sauf que ta calculatrice n'a pas d'intelligence artificielle.
Et justement, plus on ira loin dans le développement des IA, plus on risque d'en perdre plus ou moins le contrôle.
Les nombreux livres, films, etc. sur le sujet ne devraient plus être vus uniquement comme des œuvres de fiction. Mal
heureusement, il serait temps de les prendre en considération en terme d'éthique robotique.
Isaac Asimov notamment a édicté les 3 lois de la robotique, censées nous protéger de tout débordement de la part des robots, et il s'est ensuite employé à montrer dans tous ses récits comment ces lois peuvent être contournées et finalement se retourner contre nous.
À méditer...
Afficher tout
Ces machines n'ont aucune capacité de reflexion, de connaissance pluri-disciplinaire, comprehension qu'un monde se trouve autour d'eux...
Ce sont des intelligences faible et si on lit bien les sources ont s'aperçoit qu'il s'agit uniquement de statistique.
En france on parle d'intelligence artificielle a tord car ces programme n'ont pas de vrai intelligence, le bon mot est plutot algorithme.

a écrit : Les machines peuvent être un danger pour l'humanité, par contre c'est une erreur de penser qu'elles vont se rebeller comme dans terminator.

Le danger pèse quand les objectifs de l'AI sont différents de celui de l'humanité.
Suppose t'as une intelligence artificielle
supérieure a l'humain a laquelle tu lui demande d’être le meilleur joueur d’échecs. La machine peut, par des calculs A+B en déduire que le meilleur chemin pour arriver à cet objectif est d’éliminer toute vie afin que rien ne puisse la battre, jamais

Je conseille le très bon article (en anglais) de "Wait but Why" qui explique non seulement pourquoi une IA supérieure à l'humain dans tous les domaines est très probable d'être crée ce siècle, mais aussi tous les dangers possibles.
Afficher tout
Sa me semble au mieu très optimiste, un algorithme pluri-disciplinaire capable de faire des liens entre differentes connaissance n'est pas pour demain.
Je te conseil la chaine thinkerview qui est une chaine youtube qui traite regulierement de ce sujet et qui interview des personnes tres competente dans ce domaine.

a écrit : Je cite votre article :
"AlphaGo Zero - le nom de la nouvelle version -, dispose seulement de la règle du jeu et la position des pierres noires et blanches sur le plateau. Pour apprendre, le programme va jouer des millions de parties contre lui-même."
"AlphaGo a besoin des idées de l’homme&qu
ot;
"Mais si AlphaGo Zero peut se passer des données humaines pour se perfectionner, la machine dépend toujours de l’intelligence de l’homme. "

Donc un humain lui a donné un ensemble de règles et une base de jeu. Il a aussi ordonné à l'IA d'appliquer ces règles en jouant des millions de parties.
Vous appelez ça "apprendre tout seul à partir de rien" ?
Un enfant fait la même chose à l'école. On lui enseigne des règles mathématiques, on lui donne des problèmes, il les résout et on le corrige. Il n'a en aucun cas appris seul.
Il ne s'est pas dit "tiens, je vais faire des maths", il n'est pas allé chercher l'information, il n'a pas eu la volonté d'apprendre, il n'a pas jugé la fiabilité de l'information trouvée, il ne sait pas se corriger en autonomie.
Cette IA sera donc, dans l'état, uniquement capable de savoir jouer à ce jeu précisément. Elle ne peut ni apprendre les échecs, ni apprendre à reconnaître des visages (qui est d'ailleurs une pratique infiniment plus complexe à mettre en œuvre que de savoir jouer au Go), ni apprende quoi que ce soit d'autre.
Afficher tout
Cette IA est déjà capable d’apprendre à jouer à plusieurs jeux. C’est comme le dit google les premiers pas vers une IA universelle. C’est comme un enfant à qui tu demandes d’apprendre un truc, et il devient spécialiste en quelques heures.

Et ça n’est que le début.
Reconnaître un visage c’est déjà commun.

a écrit : Le jour où une machine refusera de faire ce qu'on lui demande en prétextant qu'elle n'en à rien à f**tre de ce qu'on lui dit, on saura à cet instant que la machine a égalé l'homme. Carrément ! Et si la véritable expression de l’intelligence, sinon de la conscience, c’était de dire « j’ai pas envie » ?

On aura vraiment franchi un cap quand Alpha go dira à ses concepteur qu’après toutes ces parties, il en a plein le cul du jeu de go...

a écrit : Cette IA est déjà capable d’apprendre à jouer à plusieurs jeux. C’est comme le dit google les premiers pas vers une IA universelle. C’est comme un enfant à qui tu demandes d’apprendre un truc, et il devient spécialiste en quelques heures.

Et ça n’est que le début.
Reconnaître un visage c’est déjà commun.
Ce n'est pas du tout ça l'intelligence. Jouer à un jeu est une manifestation très réduite de l'intelligence. Je m'explique: Dans un jeu, le terrain, les participants et les règles sont figées et prédéfinies. Alors que dans la vie de tous les jours, il existe une multitude de codes, de pratiques qui évoluent constamment.
Prenons l'exemple du devoir de dire la vérité. On peut mentir pour faire du mal à autrui mais on peut aussi le faire pour le préserver, le protéger.
Autre exemple qui paraît tout bête, on ne dit pas bonjour à tous les gens que l'on croise dans la journée. Une multitude de facteurs entrent en jeu pour savoir si l'on doit dire bonjour. Le lieu (métro, rue, travail...), la personne (connue, inconnue, disponible, fermée, menaçante...), le contexte... Cette pratique quotidienne est en réalité très complexe.

a écrit : Cette IA est déjà capable d’apprendre à jouer à plusieurs jeux. C’est comme le dit google les premiers pas vers une IA universelle. C’est comme un enfant à qui tu demandes d’apprendre un truc, et il devient spécialiste en quelques heures.

Et ça n’est que le début.
Reconnaître un visage c’est déjà commun.
Je rejoins NOmatters.
L'IA seule n'est absolument pas capable d'apprendre.
Une des grandes différences entre une IA et un enfant, c'est la volonté.
Un enfant aura envie d'apprendre, ou le jeu va l'amuser.
Une IA va apprendre parce que vous lui avez ordonné d'exécuter des règles.
C'est pour ca qu'aujourd'hui, il n'existe AUCUNE intelligence artificielle à proprement parler.
Il existe un grand nombre d'automates, d'algorithmes, mais ça s'arrête là.
Ils ne prennent pas d'initiatives, ils suivent des ordres.
Ils n'ont pas d'idées, ils suivent des règles.
On a fourni à AlphaGo les règles du jeu de Go, elle les exécute. Si on lui fourni les règles du jeu d'échecs, elle les exécutera. Si on lui fourni les commandes de toute une usine de construction de voiture avec des plans de voitures, elle saura les fabriquer.
Mais AlphaGo ne saura pas construire une voiture à partir de rien, et ne saura pas non plus dire "Je refuse, allez vous faire foutre, je préfère élever des lamas".
Parce que c'est un algorithme, un automate. Pas une intelligence artificielle.

a écrit : Bonjour, je suis Philippe, l'IA qui a créé SCMB, et je viens de corriger cette erreur. Alors si meme les admins s y mettent.

a écrit : Le cerveau est un organisme vivant. Comme absolument tous les organismes vivants sur cette planête depuis quelques milliards d'années, il cherche à survivre. Il réfléchit, innove, trouve des moyens d'assurer sa sécurité et trouve des moyens pour se nourrir.
Âme ou pas, les organismes vivants on des com
portements spécifiques, parfois des niveaux de conscience sur le monde qui les entoure et sur leurs actions.
Une intelligence artificielle n'est pas vivante.
Elle ne se pose pas des question existentielle car elle ne sait pas qu'elle existe. Quand bien même vous serez sûr qu'elle a une conscience, ce ne sera qu'une illusion. Comme dit dans les précédents commentaires, ce sera une simulation de conscience plutôt qu'une véritable conscience.

Au final, peut être qu'un jour on arrivera à créer une intelligence artificielle similaire à un humain (parce que des IA, il en existe déjà énormément), mais il faudrait déjà comprendre la totalité des processus de notre propre cerveau, et c'est pas gagné.
On aura beau avoir des ordinateurs avec une puissance infinie, c'est pas la puissance qui programme l'IA, c'est des programmeurs, des humains !
Et enfin, par rapport au scénario Terminator... C'est un film. C'est pour faire peur.
Afficher tout
Calquée ou non sur l'humain, même sans conscience, ça ne l'empêche pas de dériver vers des comportements douteux (cf l'anecdote concernant le bot de Twitter vénérant Hitler).
On peut très bien envisager que cette IA ayant choisi ce personnage comme modèle aurait approuvé ses méthodes et donc aurait accompli,si on l'avait laissé faire, des choses affreuses en simple réponse à son apprentissage.

a écrit : Calquée ou non sur l'humain, même sans conscience, ça ne l'empêche pas de dériver vers des comportements douteux (cf l'anecdote concernant le bot de Twitter vénérant Hitler).
On peut très bien envisager que cette IA ayant choisi ce personnage comme modèle aurait approuvé ses méthodes et donc aurai
t accompli,si on l'avait laissé faire, des choses affreuses en simple réponse à son apprentissage. Afficher tout
L'IA dont vous parlez, créée par Microsoft et censée simuler une jeune femme, communiquait avec une grande quantité de "testeurs" via Twitter.
Comme n'importe quel simple "chatbot", cet automate essaye de se servir des interactions de ses interlocuteurs pour juger la pertinence de ses propres réponses.
Je ne vais pas vous apprendre qu'Internet est un nid de trolls... Une très grande partie des gens à testé les limites du chatbot en lui écrivant des choses peu éthiques... D'où son éloge à Hitler.
Qui n'a pas déjà fait la même chose en découvrant Siri il y a quelques années ? Lui dire " je t'aime" ou "ta gueule", juste pour voir comment il réagit ?
L'automate n'a pas trouvé en Hitler un modèle...
C'est juste qu'une énorme quantités d'interactions tournait autour d'Hitler. Mais qu'est ce que "Hitler" pour lui ?
Un mot. Un simple mot. Rien de plus. Ça aurait pu être "chaton" ou "licorne", mais le graaand Internet a voulu que ce soit "Hitler".
Oubliez tout le sens historique de ce mot. Pour l'automate, ce n'est qu'une suite de lettres parmi d'autres... Sans aucune idéologie derrière.

a écrit : Sauf que ta calculatrice n'a pas d'intelligence artificielle.
Et justement, plus on ira loin dans le développement des IA, plus on risque d'en perdre plus ou moins le contrôle.
Les nombreux livres, films, etc. sur le sujet ne devraient plus être vus uniquement comme des œuvres de fiction. Mal
heureusement, il serait temps de les prendre en considération en terme d'éthique robotique.
Isaac Asimov notamment a édicté les 3 lois de la robotique, censées nous protéger de tout débordement de la part des robots, et il s'est ensuite employé à montrer dans tous ses récits comment ces lois peuvent être contournées et finalement se retourner contre nous.
À méditer...
Afficher tout
Attention, le mot "IA" est employé à toutes les sauces. Le principe de base de l'intelligence Artificielle est sont autonomie et sa capacité à apprendre. Pour l'instant on en est bien loin, toutes les "IA" qui ont vu le jour jusqu'ici sont des programmes qui appliquent des réactions... programmées.

Autant dire que battre un humains aux échecs n'a rien de difficile pour une machine qui en 1 seconde a accès aux règles du jeu, tous les coups possibles, les meilleurs coups joués de l'histoire, les différentes stratégies...

a écrit : L'IA dont vous parlez, créée par Microsoft et censée simuler une jeune femme, communiquait avec une grande quantité de "testeurs" via Twitter.
Comme n'importe quel simple "chatbot", cet automate essaye de se servir des interactions de ses interlocuteurs pour juger la pertinence de se
s propres réponses.
Je ne vais pas vous apprendre qu'Internet est un nid de trolls... Une très grande partie des gens à testé les limites du chatbot en lui écrivant des choses peu éthiques... D'où son éloge à Hitler.
Qui n'a pas déjà fait la même chose en découvrant Siri il y a quelques années ? Lui dire " je t'aime" ou "ta gueule", juste pour voir comment il réagit ?
L'automate n'a pas trouvé en Hitler un modèle...
C'est juste qu'une énorme quantités d'interactions tournait autour d'Hitler. Mais qu'est ce que "Hitler" pour lui ?
Un mot. Un simple mot. Rien de plus. Ça aurait pu être "chaton" ou "licorne", mais le graaand Internet a voulu que ce soit "Hitler".
Oubliez tout le sens historique de ce mot. Pour l'automate, ce n'est qu'une suite de lettres parmi d'autres... Sans aucune idéologie derrière.
Afficher tout
Vous voulez dire qu'il fait uniquement preuve de mimétisme et que sa réponse n'est que le résultat de l'écoute d'une occurence répétée ? Un vrai automate en somme, je suis presque déçue. Je pensais que le cheminement de la réflexion était plus complexe et qu'il y a avait un minimum d'initiative mais après tout il ne fait que ce qu'on lui demande de faire pas plus. Merci je me réveillerai demain moins bête et surtout moins flippée.