Le 29 juillet dernier, France2 diffusait un reportage sur les robots-soldats ou autrement dits des machines de guerre autonomes. Ce sujet - parmi tant d'autres - m'a fait froid dans le dos puisqu'une fois de plus nous mettons notre plus haute technologie (l'intelligence artificielle) au service de la guerre comme cela a été fait avec l'énergie nucléaire.
Lors de la Conférence internationale sur l'intelligence artificielle (IJCAI) à Buenos Aires, des scientifiques dont entre autres Stephen Hawkins ont lancé un appel pour interdire ces robots tueurs : ils pourraient se tromper de cible, ou tomber entre les mains de terroristes ou de dictateurs (pléonasme, les uns sont les larves des autres).
Non contents de violer les lois de la robotique formulées par Isaac Asimov, ils seraient faciles à fabriquer et n'utiliseraient pas de protocoles complexes.
Autrement dit : si nous nous posons des questions éthiques, c'est qu'il est déjà trop tard, beaucoup trop tard. Telle organisation ou tel pays aura suffisamment d'arrogance et de milliards pour se payer ne serait-ce qu'une faction de robots tueurs ultra-obéissants. Et dans cette éventualité, les autres pays - USA en tête - voudront eux aussi se doter d'une telle cyber-armée dans l'éventualité d'une attaque des premiers robots tueurs. Et toutes les têtes pensantes et leurs colloques ne pourront empêcher cela. Notre morale ne pourra rien contre leurs balles.
Jusqu'à présent, je considérais le scénario de Terminator (Skynet, l'intelligence artificielle se retournant contre l'homme) comme étant pure fiction. Mais à mesure que je vois l'IA s'insérer de plus en plus de nos vies, prendre part aux décisions et demain participer aux stratégies de guerre, je me dis que ce cauchemar deviens notre réalité. L'intelligence artificielle prendra le pas sur l'intelligence humaine. Dans quelques années, ces robots tueurs apparaîtront sur le marché noir ou le Dark Net et les esprits les plus fous commanditeront un génocide. Le premier massacre humain perpétré par des robots. Notre nouvel Hiroshima.
Lors de la Conférence internationale sur l'intelligence artificielle (IJCAI) à Buenos Aires, des scientifiques dont entre autres Stephen Hawkins ont lancé un appel pour interdire ces robots tueurs : ils pourraient se tromper de cible, ou tomber entre les mains de terroristes ou de dictateurs (pléonasme, les uns sont les larves des autres).
Non contents de violer les lois de la robotique formulées par Isaac Asimov, ils seraient faciles à fabriquer et n'utiliseraient pas de protocoles complexes.
Autrement dit : si nous nous posons des questions éthiques, c'est qu'il est déjà trop tard, beaucoup trop tard. Telle organisation ou tel pays aura suffisamment d'arrogance et de milliards pour se payer ne serait-ce qu'une faction de robots tueurs ultra-obéissants. Et dans cette éventualité, les autres pays - USA en tête - voudront eux aussi se doter d'une telle cyber-armée dans l'éventualité d'une attaque des premiers robots tueurs. Et toutes les têtes pensantes et leurs colloques ne pourront empêcher cela. Notre morale ne pourra rien contre leurs balles.
Jusqu'à présent, je considérais le scénario de Terminator (Skynet, l'intelligence artificielle se retournant contre l'homme) comme étant pure fiction. Mais à mesure que je vois l'IA s'insérer de plus en plus de nos vies, prendre part aux décisions et demain participer aux stratégies de guerre, je me dis que ce cauchemar deviens notre réalité. L'intelligence artificielle prendra le pas sur l'intelligence humaine. Dans quelques années, ces robots tueurs apparaîtront sur le marché noir ou le Dark Net et les esprits les plus fous commanditeront un génocide. Le premier massacre humain perpétré par des robots. Notre nouvel Hiroshima.