La Norvège a attribué 260 millions d'euros pour développer de nouveaux missiles capables de prendre seuls la décision de tirer sur une cible. Ce système, qui ne manque pas de faire penser au système Skynet de Terminator (qui finit par se retourner contre les humains) a créé une vague de contestation d'organisations de défense de la paix et même de l'ONU. Le système est prévu pour être mis en service en 2025.
Tous les commentaires (136)
Le système pourrait donc également ne pas tirer alors qu'un humain l'aurait fait (je pense au vol civil abattu au dessus de l'Ukraine).
Ô grand Asimov ! N'avait-tu pas fixé 3 lois a respecter des humains pour faire des robots ? Pourquoi, Ô Asimov, tes lois ne sont-elles pas ancrée a la culture, puisque nous allons vivre avec des robots ?
Première chose : les trois (quatre, si on tient compte de la Loi zéro de la robotique) Lois de la robotique sont des lois inviolables qui forment un ensemble logique parfait (A>B>C) devant servir de garde-fou à l'humanité (pour rendre impossible aussi bien l'hypothèse des machines se retournant contre leurs créateurs que l'utilisation militaire ou criminelle de robots) et pour ce faire implantées au plus profond de a programmation, du code, du cerveau, peu importe, de tous les robots DANS L'OEUVRE D'ISAAC ASIMOV.
Les "Trois lois" ont été formulées par Isaac Asimov, biochimiste et écrivain russo-américain et reprises dans la plupart des oeuvres de science-fiction évoquant la robotique. Elles peuvent s'énoncer ainsi :
Première loi de la robotique : Un robot ne devra jamais porter atteinte à un être humain ni, restant passif, laisser celui-ci exposé au danger.
Deuxième loi de la robotique : Un robot devra toujours obéir aux ordres ou instructions d'un être humain, à moins qu'ils ne soient en contradiction avec la Première loi.
Troisième loi de la robotique : Un robot devra protéger sa propre existence, sous réserve de respecter la Première et la Deuxième lois.
Si ces lois, ou du moins l'idée qui les sous-tend, peuvent effectivement se retrouver dans certaines situations dans le monde réel, il ne s'agit de rien de plus que d'éléments FICTIFS d'oeuvres de FICTION. Et si, en ce qui concerne l'histoire de la science-fiction, elles ont une importance majeure, il n'en va naturellement pas de même dans la robotique réelle, a fortiori quand on parle de robotique militaire !
À titre indicatif, c'est en Norvège que le PIB par habitant est le plus élevé de la planète.
Source : Banque mondiale
De plus, les missiles peuvent tous aussi bien protéger la population (on parle dans l'anecdote de "cible" pas d'humain, c'est ici qu'intervient le rapport avec les films et avec votre façon de déformer les choses pour en venir à des "choses" délirantes).
Si tu veux des exemples plus proche de ce cas, tu as "the Iron dome" développé par l'Israël avec la grande participation des USA : un financement similaire et une même fonction principale à savoir tirer de manière automatique sur des cibles préalablement repéré et évalué.
Et pour ce qui est de l'anecdote, si des robots officient effectivement déjà à de nombreux "postes" dans les armées de tous les pays industrialisés du monde depuis une grosse décennie, dont certains armés, là où un tabou est brisé c'est bien dans la prise de décision. Jusqu'ici, le dogme partout dans le monde - notamment par crainte d'une escalade et d'une nouvelle course à l'armement - voulait que même si on laissait au robot latitude pour définir un certain nombre de cibles potentielles, avec des recommandations plus ou moins appuyées d'engagement, la décision était prise par un humain. Qu'il s'agisse de qui tuer, de comment le tuer ou de presser la détente - ou en l'occurrence d'appuyer sur le bouton ordonnant au drone de libérer son missile.
Ce, non pour des raisons techniques ou de fiabilité - on sait le faire et un robot est bien plus fiable que n'importe quel humain - mais pour des raisons éthiques et morales - philosophiques, en réalité. Comme beaucoup de commentaires l'ont relevé (c'est d'ailleurs bien là l'origine de l'essentiel de la contestation), permettre à une machine de décider si un humain doit vivre ou mourir, c'est franchir le Rubicon. C'est - potentiellement - ouvrir la boîte de Pandore. Et si une armée le fait, les autres devront suivre, un système entièrement autonome étant virtuellement infiniment plus efficace.
Du moment que le programme n'est pas un windows... :p
Non sans rire, ils ne regardent pas les films de science-fiction? Comme si on avait pas assez la psychose qu'un jour les robots contrôleront le monde ^^'
J'aimerais bien savoir sur quels critères les missiles vont se basés pour prendre les décisions.
Si ça permet de se déresponsabiliser en cas de bavure on est dans la m....
Tout cela n'est pas très surprenant, de plus en plus d'armes utilisent des procédures d'automatisation dans les phases de détection et de prise de décision. Les munitions intelligentes existent déjà, les munitions autonomes sont en développement dans beaucoup de pays tout comme les drones autonomes ou les tourelles (cf Corée du Sud).