La Norvège est-elle en train de préparer un remake de Terminator ?

Proposé par
le
dans

La Norvège a attribué 260 millions d'euros pour développer de nouveaux missiles capables de prendre seuls la décision de tirer sur une cible. Ce système, qui ne manque pas de faire penser au système Skynet de Terminator (qui finit par se retourner contre les humains) a créé une vague de contestation d'organisations de défense de la paix et même de l'ONU. Le système est prévu pour être mis en service en 2025.


Tous les commentaires (136)

Le système pourrait donc également ne pas tirer alors qu'un humain l'aurait fait (je pense au vol civil abattu au dessus de l'Ukraine).

Posté le

android

(2)

Répondre

a écrit : Quand la réalité rattrape la fiction... Tout à fait d'accord! C'est quand même fou les évolutions technologiques! Jusqu'où vont-elles nous mener?? Vers notre perte ou une évolution améliorée? Telle est la question!!

a écrit : Je n'y connais peut être pas grand chose en géopolitique, mais il me semble que la Norvège n'est pas un pays particulièrement menacé par des attaques, alors je ne vois pas à quoi pourraient servir ces missiles "intelligents"... À les vendre

Posté le

android

(6)

Répondre

Ô grand Asimov ! N'avait-tu pas fixé 3 lois a respecter des humains pour faire des robots ? Pourquoi, Ô Asimov, tes lois ne sont-elles pas ancrée a la culture, puisque nous allons vivre avec des robots ?

Posté le

android

(2)

Répondre

Première chose : les trois (quatre, si on tient compte de la Loi zéro de la robotique) Lois de la robotique sont des lois inviolables qui forment un ensemble logique parfait (A>B>C) devant servir de garde-fou à l'humanité (pour rendre impossible aussi bien l'hypothèse des machines se retournant contre leurs créateurs que l'utilisation militaire ou criminelle de robots) et pour ce faire implantées au plus profond de a programmation, du code, du cerveau, peu importe, de tous les robots DANS L'OEUVRE D'ISAAC ASIMOV.

Les "Trois lois" ont été formulées par Isaac Asimov, biochimiste et écrivain russo-américain et reprises dans la plupart des oeuvres de science-fiction évoquant la robotique. Elles peuvent s'énoncer ainsi :

Première loi de la robotique : Un robot ne devra jamais porter atteinte à un être humain ni, restant passif, laisser celui-ci exposé au danger.

Deuxième loi de la robotique : Un robot devra toujours obéir aux ordres ou instructions d'un être humain, à moins qu'ils ne soient en contradiction avec la Première loi.

Troisième loi de la robotique : Un robot devra protéger sa propre existence, sous réserve de respecter la Première et la Deuxième lois.

Si ces lois, ou du moins l'idée qui les sous-tend, peuvent effectivement se retrouver dans certaines situations dans le monde réel, il ne s'agit de rien de plus que d'éléments FICTIFS d'oeuvres de FICTION. Et si, en ce qui concerne l'histoire de la science-fiction, elles ont une importance majeure, il n'en va naturellement pas de même dans la robotique réelle, a fortiori quand on parle de robotique militaire !

Posté le

android

(3)

Répondre

À titre indicatif, c'est en Norvège que le PIB par habitant est le plus élevé de la planète.
Source : Banque mondiale

a écrit : Quasi, car le principe même d'un système informatique c'est qu'il n'est pas parfait. Je ne vois pas le rapport avec regarder des films. Le pilote auto ou tout ça permet est un usage quotidien et au pire permettent de garder en vie. Alors que des missiles donnent la mort. C'est quand même assez différent Le principe d'un système informatique c'est d'être complet, et de savoir faire face à toute les situations.
De plus, les missiles peuvent tous aussi bien protéger la population (on parle dans l'anecdote de "cible" pas d'humain, c'est ici qu'intervient le rapport avec les films et avec votre façon de déformer les choses pour en venir à des "choses" délirantes).
Si tu veux des exemples plus proche de ce cas, tu as "the Iron dome" développé par l'Israël avec la grande participation des USA : un financement similaire et une même fonction principale à savoir tirer de manière automatique sur des cibles préalablement repéré et évalué.

Et pour ce qui est de l'anecdote, si des robots officient effectivement déjà à de nombreux "postes" dans les armées de tous les pays industrialisés du monde depuis une grosse décennie, dont certains armés, là où un tabou est brisé c'est bien dans la prise de décision. Jusqu'ici, le dogme partout dans le monde - notamment par crainte d'une escalade et d'une nouvelle course à l'armement - voulait que même si on laissait au robot latitude pour définir un certain nombre de cibles potentielles, avec des recommandations plus ou moins appuyées d'engagement, la décision était prise par un humain. Qu'il s'agisse de qui tuer, de comment le tuer ou de presser la détente - ou en l'occurrence d'appuyer sur le bouton ordonnant au drone de libérer son missile.

Ce, non pour des raisons techniques ou de fiabilité - on sait le faire et un robot est bien plus fiable que n'importe quel humain - mais pour des raisons éthiques et morales - philosophiques, en réalité. Comme beaucoup de commentaires l'ont relevé (c'est d'ailleurs bien là l'origine de l'essentiel de la contestation), permettre à une machine de décider si un humain doit vivre ou mourir, c'est franchir le Rubicon. C'est - potentiellement - ouvrir la boîte de Pandore. Et si une armée le fait, les autres devront suivre, un système entièrement autonome étant virtuellement infiniment plus efficace.

Posté le

android

(1)

Répondre

a écrit : Le principe d'un système informatique c'est d'être complet, et de savoir faire face à toute les situations.
De plus, les missiles peuvent tous aussi bien protéger la population (on parle dans l'anecdote de "cible" pas d'humain, c'est ici qu'intervient le rapport avec l
es films et avec votre façon de déformer les choses pour en venir à des "choses" délirantes).
Si tu veux des exemples plus proche de ce cas, tu as "the Iron dome" développé par l'Israël avec la grande participation des USA : un financement similaire et une même fonction principale à savoir tirer de manière automatique sur des cibles préalablement repéré et évalué.
Afficher tout
Un système tel que le Iron Dome déployé en Israël n'a strictement rien à voir avec ce dont il est question ici. Il s'agit d'un "simple" (ok, c'est en pratique d'une immense complexité, mais dans une autre domaine) système de défense antimissile. Il n'y a à aucun moment prise de décision : le système de détection repère ce qu'on lui a dit de repérer, analyse à quel point la ressemblance avec l'objet qu'on lui a dit de chercher est élevée et relaie l'information au système de commande, qui analyse les données et si les critères sont validés - y compris celui qui exige qu'on lui aie ordonné de tirer si dans telle ou telle situation précise - envoie au système de conduite de tir les informations nécessaires à l'interception de l'objet en question. Le système calcule la trajectoire de la cible, celle de son propre missile et tire. Là où Iron Dome est spectaculaire, c'est dans la rapidité et l'efficacité opérationnelle. Mais si tu tires vers lui avec autre chose que ce qu'il est conçu pour intercepter, il ne bougera pas. C'est automatique, pas intelligent. Là, on parle d'un système qui définit lui-même si chaque chose qu'il détecte représente ou non une menace, et dans l'affirmative ce qu'il convient de faire - et le faire, avec la possibilité de choisir l'option "tirer et avertir la chaîne de commandement". Aujourd'hui, on en est à la possibilité de choisir l'option "recommander à l'opérateur de valider le tir". Et c'est très différent. En outre, il s'agit pour l'instant de dispositifs offensifs, donc déployés dans le cas où on a des raisons de penser qu'il y a une menace. C'est autre chose lorsqu'il s'agit de déployer un système de ce genre sur son propre territoire en temps de paix, donc dans une situation où a priori il n'y aura aucune menace, mais potentiellement énormément d'objets détectés.

Posté le

android

(0)

Répondre

Du moment que le programme n'est pas un windows... :p
Non sans rire, ils ne regardent pas les films de science-fiction? Comme si on avait pas assez la psychose qu'un jour les robots contrôleront le monde ^^'

Posté le

android

(0)

Répondre

a écrit : Mais que fait John Connor??? Heu il se couche moins bête, une fois de plus ;)

a écrit : C'est triste de voir que les pays investissent des millions pour des armes ne pensent-ils jamais a faire la paix ? Dire que tous cet argent pourrait servir a des causes plus nobles, réduire la famine, dons pour les recherches... Oui je sais on va me dire que c'est pas le monde des bisounours mais enfin bon... Je me demande si il ne faudrait pas définir l'équivalent du point Godwin avec le sujet de la faim dans le monde ? Combien faut il de messages qui parlent d'argent avant qu'il y en ait un qui dise que l'argent serait mieux utilisé pour lutter contre la faim dans le monde ?

Posté le

android

(2)

Répondre

a écrit : On va finir exterminés par nos propres robots ;) Et avec le sourire en plus !

a écrit : Ça commence a faire peut car si ces robots peuvent prendre la décision de tirer tout seuls pouvons nous encore les contrôler ?n'y a-t-il donc aucun risque que ce robot se trompe a un moment donné ?et si cela se produit nous sera-t-il encore possible de le stopper a temps pour empêcher la catastrophe... Comme dans tout les domaines, l'erreur est possible, la différence est qui fait l'erreur, un robot ou un humain. Je suppose que bien que ce système se rapproche de l'intelligence artificiel on en est encore loin, donc presque impossible de perdre le contrôle sur ce robot tueurs,

J'aimerais bien savoir sur quels critères les missiles vont se basés pour prendre les décisions.

Posté le

android

(0)

Répondre

Si ça permet de se déresponsabiliser en cas de bavure on est dans la m....

a écrit : On va finir exterminés par nos propres robots ;) A moins que ce ne soit par nos smartphones...

a écrit : Va dire ça aux poilus... À part l'utilisation d'un même matériel que les gaz pour créer des engrais. Y a pas grand chose qui a réellement aidé les populations. oui c'est vrai, si on oublie que le nitrate de la premiere a permit de nourrire un quantite enorme de personne, ça n'a pas aidé grand monde... -_-'

Posté le

windowsphone

(0)

Répondre

a écrit : Je n'y connais peut être pas grand chose en géopolitique, mais il me semble que la Norvège n'est pas un pays particulièrement menacé par des attaques, alors je ne vois pas à quoi pourraient servir ces missiles "intelligents"... Une bonne partie des pays occidentaux a la chance de vivre en paix depuis plus 60 ans, pour autant cela ne les empêche pas d'avoir une défense nationale. Et une paix temporaire n'est pas synonyme de paix éternelle, les gens ont tendance à croire qu'ils ne seront plus touchés par la guerre. L'histoire nous démontre pourtant le contraire...

Posté le

android

(0)

Répondre

Tout cela n'est pas très surprenant, de plus en plus d'armes utilisent des procédures d'automatisation dans les phases de détection et de prise de décision. Les munitions intelligentes existent déjà, les munitions autonomes sont en développement dans beaucoup de pays tout comme les drones autonomes ou les tourelles (cf Corée du Sud).

Posté le

android

(0)

Répondre