Les extraterrestres ne ressemblent sans doute pas à ce que l'on pense

Proposé par
le
dans

Il est fort probable que l'espèce dominante dans l'univers, si elle existe, est une intelligence artificielle : c'est la conclusion d'une étude de Susan Schneider prochainement publiée par la NASA, et qui rejoint d'autres études scientifiques. L'intelligence artificielle serait capable de dépasser très largement les capacités de n'importe quel cerveau biologique, ce qui en ferait l'espèce dominante. L'espèce humaine aurait déjà amorcé cette transition avec les avancées technologiques qui améliorent le corps humain.

Le très respecté physicien Stephen Hawking a lui-même déclaré récemment que l'intelligence artificielle serait prochainement une réelle menace pour l'humanité.


Tous les commentaires (241)

a écrit : Tu interprètes comme ça t'arranges ce que je dis. On parle d'une science qui nous dépasserait. C'est l'homme qui a les capacités pour exploiter cette terre, pas les dinosaures ni les plantes. Donc oui cette terre est faite pour nous. Va donc vivre sur Mars sans équipements puisque tu prétends le contraire. Je n'ai jamais dit de stopper cette évolution, personne ne le peut. Je dis juste que c'est dangereux pour l'espèce humaine quand elle ne sait même plus qui elle est. Mais je vois que ce qui te plait c'est les clichés je ne répondrait donc plus. Afficher tout Et moi qui pensais que les arbres avaient la capacité d'exploiter les roches pour s'alimenter, que les baleines exploitaient les bancs de sardines, que les algues exploitaient le soleil... Ce monde n'est pas fait ni pour nous ni pour la vie, c'est juste que les conditions sont acceptable pour que la vie (et nous) s'y développe mais la vie n'a jamais cessé de modifier l'environnement. L'oxygène de l'air n'est pas là par hasard, il a été produit pendant des milliards d'années par le vivant en tant que déchet toxique pour la plupart des organismes et que d'autres organismes ont fini par s'y adapter et l'utiliser à leur avantage et non pace qu'il était destiné à etre respiré.

Même si les robots deviendrons la race dominante, c'est pas dit qu'ils auront forcément un instinct de destruction comme les humains!

Posté le

android

(0)

Répondre

a écrit : La notion d'âme est religieuse et non scientifique.

Pour un neuroscientifique, l'âme n'existe pas.
Bien qu'il n'existe aucune preuve scientifique de son existence, l'âme demeure pourtant un objet d'étude dans certaines recherches sur l'expérience de mort imminente. ....Wiki
85: "Et s'ils t'interrogent au sujet de l'âme, - Dis : "l'âme relève de l'Ordre de mon Seigneur". Et on ne vous a donné que peu de connaissance." CORAN

a écrit : Bien qu'il n'existe aucune preuve scientifique de son existence, l'âme demeure pourtant un objet d'étude dans certaines recherches sur l'expérience de mort imminente. ....Wiki
85: "Et s'ils t'interrogent au sujet de l'âme, - Dis : "l'âme relève de l'Ordr
e de mon Seigneur". Et on ne vous a donné que peu de connaissance." CORAN Afficher tout
Tout à fait, et le résultat de ces expériences est que les phénomènes observés (décorporation, tunnel sombre avec sortie lumineuse etc) sont tout à fait reproductibles sans l'intervention d'une "âme" (manque d'oxygène par exemple).

Mais comme le dit ton livre d'histoires qui n'apporte pas plus de justification, ne vas surtout pas t'instruire à ce sujet ;). Tu aurais du mal à réconcilier informations scientifiques et écrits coraniques.

Mais on s'éloigne trop de l'anecdote (quoi que âme, IA), je m'arrête là pour le HS.

a écrit : Comme l'avait déjà découvert Darwin, la différence d'expression des émotions entre l'Homme et les autres animaux est de l'ordre du degré d'expression plutôt que de l'absence ou de la présence.

Empathie, altruisme, sentiment d'injustice, protection des enfants orphelins,
autant d'émotions que l'on croyait réservées à l'Homme mais que l'on a pu retrouver chez d'autres animaux.

Et plus on étudie l'expression des émotions chez les animaux, plus ils nous apparaissent proches de nous.

Pour le reste, je suis d'accord avec toi ;).
Afficher tout
Ce qui me perturbe, c'est que nulle part dans le débat, n'apparaisse la notion de valeur morale énoncée clairement. Au-delà des lois d’Asimov je veux dire. Je sais bien que comme le disait Nietzsche "Dieu est mort" et ceci depuis longtemps, mais je trouve qu'on ne se pose pas assez de questions de cette ordre, à l'ère de l'émergence d'une robotique supérieure : ça ne vous inquiète pas, vous ?

Où est la notion de libre arbitre dans tout ça ? Choisir de faire le bien, ou bien choisir de faire le mal, de faire seul en tant qu’individu, ou ensemble en tant qu’espèce : en quoi une intelligence artificielle serait-elle plus à même qu'un être humain de comprendre POURQUOI elle fait les choses qu'elle fait et pas seulement COMMENT ?

Je veux bien imaginer toute une chaîne causale qui amènerait l'intelligence artificielle à prendre le pas sur l'humanité : je comprends la logique de la démarche d’adaptation au milieu. Mais toute supérieure qu’elle puisse être, l’intelligence artificielle n’en sera pas pour autant parfaite. Elle commettra des « erreurs », c’est aussi dans la logique naturelle des êtres (à petite ou à grande échelle) : autrement dit, elle fera ce qu’elle fera, mais elle aura pu à un moment avoir pu faire autrement qu’elle n’a fait. Et POURQUOI elle choisira de faire comme elle fera, et pas autrement ? Au nom de quelle valeur ? Si l’intelligence supérieure devient artificielle, est-ce qu’il n’y a pas à craindre que les valeurs qui la sous-tendent deviennent encore plus artificielles ?

N’oublions pas que le développement de l’intelligence artificielle, aussi fascinant que cela soit, à l’heure actuelle, c’est surtout un business…

Le monde actuel est ce qu’il est, mais pourrait-on se passer de choses humaines comme, je ne sais pas moi… la créativité, la tolérance, la douceur, la musique, l'érotisme (à distinguer du seul acte charnel), la solidarité, l’humour, la capacité d’émerveillement, etc. ? N’est-ce pas aussi cela, l’intelligence ? Est-ce que ces choses-là n’aident pas aussi à survivre à son milieu ?

Posté le

android

(1)

Répondre

a écrit : Ce qui me perturbe, c'est que nulle part dans le débat, n'apparaisse la notion de valeur morale énoncée clairement. Au-delà des lois d’Asimov je veux dire. Je sais bien que comme le disait Nietzsche "Dieu est mort" et ceci depuis longtemps, mais je trouve qu'on ne se pose pas assez de questions de cette ordre, à l'ère de l'émergence d'une robotique supérieure : ça ne vous inquiète pas, vous ?

Où est la notion de libre arbitre dans tout ça ? Choisir de faire le bien, ou bien choisir de faire le mal, de faire seul en tant qu’individu, ou ensemble en tant qu’espèce : en quoi une intelligence artificielle serait-elle plus à même qu'un être humain de comprendre POURQUOI elle fait les choses qu'elle fait et pas seulement COMMENT ?

Je veux bien imaginer toute une chaîne causale qui amènerait l'intelligence artificielle à prendre le pas sur l'humanité : je comprends la logique de la démarche d’adaptation au milieu. Mais toute supérieure qu’elle puisse être, l’intelligence artificielle n’en sera pas pour autant parfaite. Elle commettra des « erreurs », c’est aussi dans la logique naturelle des êtres (à petite ou à grande échelle) : autrement dit, elle fera ce qu’elle fera, mais elle aura pu à un moment avoir pu faire autrement qu’elle n’a fait. Et POURQUOI elle choisira de faire comme elle fera, et pas autrement ? Au nom de quelle valeur ? Si l’intelligence supérieure devient artificielle, est-ce qu’il n’y a pas à craindre que les valeurs qui la sous-tendent deviennent encore plus artificielles ?

N’oublions pas que le développement de l’intelligence artificielle, aussi fascinant que cela soit, à l’heure actuelle, c’est surtout un business…

Le monde actuel est ce qu’il est, mais pourrait-on se passer de choses humaines comme, je ne sais pas moi… la créativité, la tolérance, la douceur, la musique, l'érotisme (à distinguer du seul acte charnel), la solidarité, l’humour, la capacité d’émerveillement, etc. ? N’est-ce pas aussi cela, l’intelligence ? Est-ce que ces choses-là n’aident pas aussi à survivre à son milieu ?
Afficher tout
Pourquoi le développement d'une intelligence artificielle ne serait-il que du business ?
La science est affaire de curiosité, de rigueur, de remise en question permanente et de soif de connaissances. Après, pour financer tout cela, il faut de l'argent, public et/ou privé.

Pourquoi ne pourrait-on pas inculquer des valeurs à une IA ? Pourquoi d'ailleurs ne développerait-elle pas ses propres valeurs éthiques ?

Le même processus qui nous fait prendre des décisions éthiques ou "morales" (maximiser notre bonheur et celui des autres par exemple) ne me paraît pas impossible à modéliser, les biologistes, zoologistes, ethnologues ont déjà partagé pas mal de choses à ce sujet, tu ne crois pas ?

a écrit : Pourquoi le développement d'une intelligence artificielle ne serait-il que du business ?
La science est affaire de curiosité, de rigueur, de remise en question permanente et de soif de connaissances. Après, pour financer tout cela, il faut de l'argent, public et/ou privé.

Pourquoi ne pourr
ait-on pas inculquer des valeurs à une IA ? Pourquoi d'ailleurs ne développerait-elle pas ses propres valeurs éthiques ?

Le même processus qui nous fait prendre des décisions éthiques ou "morales" (maximiser notre bonheur et celui des autres par exemple) ne me paraît pas impossible à modéliser, les biologistes, zoologistes, ethnologues ont déjà partagé pas mal de choses à ce sujet, tu ne crois pas ?
Afficher tout
Quelles études t'ont semblé particulièrement intéressantes et t'amènent à penser qu'on pourrait modéliser une éthique ? Je pense être loin d'avoir fait le tour de la question et je suis toujours preneuse de références nouvelles pour avancer plus loin ds ma réflexion intime.

Par contre, je n'ai pas du tout voulu dire que le développement d'une IA n'était qu'une histoire de business. Si c le cas, je me suis mal exprimée. Pas "que". J'ai beaucoup trop de respect pour l'esprit scientifique animé de curiosité et de rigueur tel que tu l'évoques pour penser cela. Simplement, on ne peut pas ignorer les dérives...

C'est bien tout le noeud de mon pb ici d'ailleurs : les objectifs des uns ne sont pas les mm que ceux des autres. Les priorités des uns et des autres sont différentes. De fait, nous répondons tous à une éthique qui nous est propre et qu'il me paraît impossible de rendre uniforme.

Alors oui, tu as raison, on pourrait sans doute inculquer des valeurs à une IA, mais lesquelles ? Il n'y en a pas beaucoup des valeurs universelles telles que la prohibition de l'inceste qu'on retrouve unanimement dans toutes les cultures.

Tu parles de bonheur (et sincèrement je tiens en haute estime qqn qui pense d'emblée à maximiser le bonheur d'autrui), mais la notion mm de bonheur est bien difficile à estimer ! Ce qui te rend heureux toi ne me rendrait pas forcément heureuse moi, et mm, peut-être que ce qui te rend heureux aujourd'hui toi ne te rendra pas heureux dans un an... Comment modéliser qqch d'aussi subjectif ?

Pour en revenir à l'anecdote, c'est bien que des philosophes aussi se penchent sur la question, mais je leur souhaite bon courage pour arriver à trouver moyen d'adapter la raison, le libre - arbitre, la nuance, la sensibilité, la créativité, etc. à une IA.

Par contre, en toute logique, je pense comme toi qu'en finalité, si notion d'éthique il y a un jour ds une IA, l'IA la développera par elle - mm pour se forger sa propre éthique. Je serais curieuse de connaître le résultat, mais seulement sur le papier. Ce serait peut-être mieux, comment savoir ? Mais en l'état, je ne me vois pas vivre ds un monde où la raison, le libre - arbitre, la nuance, la sensibilité et la créativité deviendraient obsolètes...

Posté le

android

(1)

Répondre

Ce qui sous entend qu'une espèce biologique créera une "créature artificielle" qui la détrônera et elle même recréera une espèce biologique pour se distraire

a écrit : c'est vrai que ca me dit quelquechose après coup, mais je vois pas le mal a citer quelqu'un. On envoie bien des noms de bouquins où des liens!
Et puis c'est ce que je pense. Changer une ampoule où changer une jambe d'androide dans 50 ans, c'est du pareil au même.
Il n'y a pas de mal à citer qui que ce soit, c'est juste le contexte.
"Changer une ampoule ou la jambe de son androïde dans 50 ans" c'est pareil en ce sens que tu le fais pour te sentir mieux, ta conscience, ton bien-être te le fait ressentir, pas parce que l'objet te le demande. Rien n'oblige de changer une ampoule à part le malaise dans le noir, mais si tu as une autre "source" de lumière "convenable", ce malaise passera. ;-)

a écrit : Ca donne un peu le vertige non ?

J'ai revu la trilogie Matrix récemment et finalement, le coeur du scénario n'est peut-être pas si bête !
C'est ce que je dis souvent à mes amis....ce film est très réaliste!au même titre qu'un terminator d'ailleurs.mais là où matrix fait encore plus fort c'est qu'il me fait me poser une question simple:ce que nous vivons est il vraiment réel??à méditer...

Posté le

android

(0)

Répondre

A quel moment l'homme sera assez bete pour se faire diriger par un robot... Le conseiller d'accord, lui dire ce qu'il doit faire et le diriger je ne pense pas... Apres la dessus les films genre Matrix sont très en avance sur le temps et mérite qu'on se pose la question! Mais honnetement, je n'y crois pas.

Posté le

android

(0)

Répondre

a écrit : C'est ce que je dis souvent à mes amis....ce film est très réaliste!au même titre qu'un terminator d'ailleurs.mais là où matrix fait encore plus fort c'est qu'il me fait me poser une question simple:ce que nous vivons est il vraiment réel??à méditer... Le "réel" n'est qu'une notion, traduite par le cerveau ! Libre à chacun d'y croire... Après on n'est pas non plus dans un film...

a écrit : Bien belle cette theorie mais la condition sine qua non reste tout de même qu'il y ai une autre vie ailleurs dans l'univers Qu'il y ait eu, pas forcément qu'il y ait ;). Mais ça tombe sous le sens, effectivement !

a écrit : Cependant 3 regles sur la robotique existent dont une qui dit qu'aucun robot peut diriger un homme.
Les Hommes sont donc sensés toujours maitriser les machines
Tu parles d'une série de romans (excellents) d'Asimov, pas de la réalité :).

Et comme précisé dans des commentaires précédents, les péripéties de ces romans arrivent justement parce des cas rendent ces lois inapplicables, et entraînent des morts malgré elles.

a écrit : C'est ce que je dis souvent à mes amis....ce film est très réaliste!au même titre qu'un terminator d'ailleurs.mais là où matrix fait encore plus fort c'est qu'il me fait me poser une question simple:ce que nous vivons est il vraiment réel??à méditer... Lol n importe quoi
Comme si les sims etaient une realite! Fait arreter de dire n importe quoi

Donc on ne vaut pas mieux qu'une machine puisque celle ci peut facilement nous copier et même faire mieux?

Posté le

android

(0)

Répondre

a écrit : Quelles études t'ont semblé particulièrement intéressantes et t'amènent à penser qu'on pourrait modéliser une éthique ? Je pense être loin d'avoir fait le tour de la question et je suis toujours preneuse de références nouvelles pour avancer plus loin ds ma réflexion intime.

Par contre,
je n'ai pas du tout voulu dire que le développement d'une IA n'était qu'une histoire de business. Si c le cas, je me suis mal exprimée. Pas "que". J'ai beaucoup trop de respect pour l'esprit scientifique animé de curiosité et de rigueur tel que tu l'évoques pour penser cela. Simplement, on ne peut pas ignorer les dérives...

C'est bien tout le noeud de mon pb ici d'ailleurs : les objectifs des uns ne sont pas les mm que ceux des autres. Les priorités des uns et des autres sont différentes. De fait, nous répondons tous à une éthique qui nous est propre et qu'il me paraît impossible de rendre uniforme.

Alors oui, tu as raison, on pourrait sans doute inculquer des valeurs à une IA, mais lesquelles ? Il n'y en a pas beaucoup des valeurs universelles telles que la prohibition de l'inceste qu'on retrouve unanimement dans toutes les cultures.

Tu parles de bonheur (et sincèrement je tiens en haute estime qqn qui pense d'emblée à maximiser le bonheur d'autrui), mais la notion mm de bonheur est bien difficile à estimer ! Ce qui te rend heureux toi ne me rendrait pas forcément heureuse moi, et mm, peut-être que ce qui te rend heureux aujourd'hui toi ne te rendra pas heureux dans un an... Comment modéliser qqch d'aussi subjectif ?

Pour en revenir à l'anecdote, c'est bien que des philosophes aussi se penchent sur la question, mais je leur souhaite bon courage pour arriver à trouver moyen d'adapter la raison, le libre - arbitre, la nuance, la sensibilité, la créativité, etc. à une IA.

Par contre, en toute logique, je pense comme toi qu'en finalité, si notion d'éthique il y a un jour ds une IA, l'IA la développera par elle - mm pour se forger sa propre éthique. Je serais curieuse de connaître le résultat, mais seulement sur le papier. Ce serait peut-être mieux, comment savoir ? Mais en l'état, je ne me vois pas vivre ds un monde où la raison, le libre - arbitre, la nuance, la sensibilité et la créativité deviendraient obsolètes...
Afficher tout
Beaucoup de questions qui me passionnent aussi dans ton commentaire (et je pense que l'on partage plutôt le même point de vue), mais je ne pense pas que ça soit l'endroit pour pouvoir tout détailler. Plus tard ou par un autre moyen peut-être (par la prochaine version de SCMB ;) ?).

Pour les références concernant les études, je ne compte par contre pas te laisser sur ta faim ;).

C'est en effet un domaine passionnant ! Tu peux par exemple regarder les travaux de Frans de Waal [2] (primatologue et ethnologue) sur l'empathie chez les primates non humains. Mais il n'est vraiment pas le seul !

Tu peux aussi écouter l'extraordinaire émission "Sur les épaules de Darwin" (j'écoute la version podcast, pratique dans la voiture ;)), spécialement les séries d'épisodes "Le lien qui nous rattache aux autres" (exemple [3]) ou "Aux origines du langage", ou encore cet épisode [1].

Tu y trouveras des références d'études, mais surtout une mise en contexte scientifique et une explication du pourquoi et des résultats de ces études, et comment elles s'inscrivent dans le corpus de nos connaissances existantes de l'évolution du vivant et dans notre propre évolution.

Car ces sentiments altruistes par exemple, cette "éthique" n'existe pas par hasard et apporte des avantages évolutifs : cohésion de groupe, éviter les guerres intestines pour améliorer la survie comme par exemple pour l'adoption par des chimpanzés d'orphelins, ou la consolation par le témoin d'un individu victime d'une agression.

Et ces sentiments ne sont pas réservés encore une fois à nous les primates, mais ont été observés, étudiés sur d'autres mammifères ou des oiseaux par exemple. L'émission de Jean Claude Ameisen en parle aussi. Ils ne sont donc pas liés à la religion ou à notre "nature humaine" mais se sont construits au fil des millions d'années qui nous ont précédé.

Et ces sentiments comme l'empathie, l'altruisme, le sentiment d'injustice [4], etc... se retrouvent présents à différents degrés plus ou moins évolués dans le monde animal, ce qui nous permet en quelque sorte de tracer l'évolution et la complexification de nos sentiments, de notre éthique/morale/appelle-la comme tu le souhaites ;). Ce qui nous permet de creuser (on a encore du chemin) le mode de fonctionnement de nos sentiments et pourquoi pas de les modéliser, vu que l'on commence à en connaître les plans et les mécanismes.

Je m'arrête là on pourrait en écrire des livres (d'ailleurs ça a été fait;)). Tu devrais avoir de quoi satisfaire un peu de ta curiosité avec ça ;).


[1] www.franceinter.fr/emission-sur-les-epaules-de-darwin-le-souci-de-lautre-0
[2] fr.wikipedia.org/wiki/Frans_de_Waal
[3] www.franceinter.fr/emission-sur-les-epaules-de-darwin-le-lien-qui-nous-rattache-aux-autres-10
[4] www.franceinter.fr/emission-sur-les-epaules-de-darwin-le-sentiment-dinjustice

a écrit : Donc on ne vaut pas mieux qu'une machine puisque celle ci peut facilement nous copier et même faire mieux? Si cette "machine" comme tu dis possède un "cerveau" au moins aussi complexe que le nôtre, je ne vois pas ce qui l'empêcherait de percer plus de mystères que nous, par exemple sur l'Univers qui nous entoure ? Cela nous serait très utile !

Ou de développer sa propre culture, sa propre curiosité, d'avoir ses propres aspirations de découverte ?

Pourquoi vaudrait-elle plus ou moins que nous, selon quels critères ?

Concernant Asimov il n'a effectivement fait que démontrer que la robotique et les lois éventuelles qui la régiraient avait des failles ... Pour ceux qui n'aime pas lire le film I.robot est tiré d'un roman d'Isaac Asimov ... Mais persos entre les livres et le bouquin je prends le bouquin ... Je vois pas de raison de m'exprimer plus longtemps la dessus..