Dans leur appel, ils alarment sur le risque que feraient peser sur l'humanité des robots capables de tuer en totale autonomie.
Ils n'existent pas encore mais pour ne pas prendre le risque de les voir apparaître, certains réclament leur interdiction. Mardi, lors de la Conférence internationale sur l'intelligence artificielle (IJCAI) à Buenos Aires, des milliers de scientifiques et de personnalités ont lancé un appel pour bannir les armes offensives autonomes, autrement appelées "robot tueurs". Le célèbre astrophysicien Stephen Hawking mais aussi Elon Musk, le patron de SpaceX, Frank Wilczek, Prix Nobel de physique ou encore Steve Wozniak, cofondateur d'Apple, craignent que ces armes de nouvelle génération se trompent de cibles ou tombent dans les mains de terroristes ou de dictateurs.Confondre civils et soldats. "Les armes autonomes choisissent et frappent des cibles sans intervention humaine, elles ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires", relèvent les signataires dans une lettre ouverte. À la différence des drones qui sont pilotés à distance par des humains, les robots tueurs seraient capables, seuls, de reconnaître leur cible et d'appuyer sur la détente, sans qu'un soldat agisse en coulisses. Leurs détracteurs craignent que ces engins, doués d'une intelligence artificielle, confondent soldats et civils lors de leurs offensive ou bien ne lancent des attaques disproportionnées.
Plus facile à obtenir qu'une arme nucléaire…
Autre danger pointé du doigt par les auteurs de cet appel, les "robots
tueurs" ne nécessitent pas "des matières premières difficiles à
obtenir", ni "de coûteux investissements". "Ce ne sera qu'une question
de temps avant qu'elles n'apparaissent sur le marché noir et entre les
mains de terroristes, de dictateurs et de seigneurs de la guerre voulant
perpétrer un nettoyage ethnique", craignent les signataires.
… et des avantages indiscutables...