Voilà comment la technologie va définitivement changer le champ de bataille.
Source : Byline Times, Iain Overton
Traduit par les lecteurs du site Les-Crises
Iain Overton analyse comment on applique la technologie de reconnaissance faciale lors de conflits militaires.
L’horreur d’une future guerre se révèle souvent de manière progressive.
La semaine dernière, on a appris que Clearview AI, une entreprise technologique américaine, avait remporté un contrat pour fournir à l’US Air Force des lunettes équipées de systèmes de reconnaissance faciale.
Le contrat, d’un montant de 50 000 dollars, promet de contribuer à la protection des aérodromes en permettant aux gardes d’être alertés si un « visage hostile » apparaît dans le champ de vision de leurs lunettes.
Clearview, soutenue par Peter Thiel, investisseur de Facebook et Palantir, a pour mission d’aider l’armée américaine à identifier les ennemis potentiels. Il ne fait aucun doute que les images des terroristes les plus recherchés par les Américains – comme Ibrahim Salih Mohammed Al-Yacoub ou Mohammed Ali Hamadei – sont déjà téléchargées sur leurs serveurs de reconnaissance faciale.
C’est une entreprise bien placée pour le faire, puisqu’elle a récolté plus de trois milliards d’images de visages de personnes dans les médias sociaux. Elle est si douée pour identifier les gens qu’elle dispose même d’une application de reconnaissance faciale qui permet à une personne de prendre une photo de quelqu’un, de la télécharger et de voir ensuite toutes les photos de cette personne actuellement sur le web, avec des liens vers les endroits où ces photos sont publiées. Cela ressemble, à s’y méprendre, au paradis des harceleurs.
Mais pourquoi devrions-nous nous inquiéter de voir l’armée la plus puissante du monde se lancer dans la défense par reconnaissance faciale ? Après tout, les services de police des États-Unis utilisent des outils de reconnaissance faciale depuis près de deux décennies, en recoupant des images telles que des photos d’identité avec des permis de conduire ?
La raison en est que ce que fait Clearview est bien supérieur.
Il utilise un réseau neuronal qui convertit l’image d’un visage en ce que l’on peut décrire comme une formule mathématique. Des vecteurs sont déterminés à partir de la géométrie d’un visage (longueur du nez, largeur de la bouche) et regroupés en groupes d’images aux formes géométriques similaires. Ainsi, lorsqu’une nouvelle photo est téléchargée, elle peut être convertie en code géométrique, puis comparée rapidement aux autres groupes de visages. Une personne peut être identifiée en un instant.
Cela semble très excitant. Mais lorsqu’on imagine comment un drone militaire pourrait être équipé de tels systèmes de reconnaissance faciale, quelque chose de proche de l’horreur émerge.
Imaginez un instant des essaims de drones – des drones autonomes entièrement électriques et alimentés par l’énergie solaire – toujours présents dans le ciel d’une zone de conflit. Imaginez qu’ils soient utilisés pour rechercher et assassiner des cibles clés, en se référant constamment à une énorme liste de tueurs en ligne, extraite des médias sociaux et d’autres sites web.
C’est une vision dystopique.
La guerre totale
Mais la technologie nécessaire à la réalisation de ce projet est déjà en place, bien que de façon progressive.
Comme l’a souligné Forbes, une demande de brevet américain a été déposée par la société AnyVision, basée à Tel Aviv, en août 2019. Il s’agissait d’aider les drones à atteindre le meilleur angle pour que les systèmes de reconnaissance faciale embarqués fonctionnent, et pour que ce drone puisse référencer la prise de vue avec un catalogue de visages stockés en aval.
En décembre 2021, les dirigeants d’AnyVision ont annoncé qu’ils s’étaient associés dans une coentreprise appelée SightX avec l’entreprise de défense israélienne Rafael. Leurs dirigeants auraient déclaré que des fonctions de reconnaissance faciale étaient en cours de développement.
Jusqu’à présent, tout va mal.
Mais certains pourraient dire : et alors ? N’est-il pas préférable de disposer de systèmes de drones programmés uniquement pour exploser face à une cible pré-approuvée ? Si l’on considère en particulier que, lorsque des armes explosives sont utilisées dans des zones peuplées, 90 % des personnes tuées ou blessées sont des civils, les assassinats ciblés semblent être une meilleure forme de guerre.
Mais le chemin de l’enfer est pavé de bonnes intentions. Ignorez, pour un instant, ce que l’utilisation de drones d’assassinat à distance signifie pour une procédure judiciaire régulière, et toutes les possibilités d’exécutions extrajudiciaires. Ignorez également le fait que les agences de renseignement nationales sont connues pour fournir des informations si médiocres qu’il est loin d’être certain que les « bons » visages seront téléchargés sur leurs listes de cibles.
Mais tenez compte de cette évolution inquiétante : si les États-Unis en disposent, la Russie et la Chine – pays que les chefs des services de renseignement américains ont identifiés comme leur principale menace – disposeront également de drones létaux équipés de la reconnaissance faciale. Ou du moins, ils le feront bientôt.
Les conséquences de cette situation pourraient être assez profondes, notamment en ce qui concerne la transparence et la responsabilité.
Il ne faut pas longtemps pour comprendre que, si de tels drones sont lâchés par l’ennemi dès les premières heures de la guerre, ils seront programmés pour rechercher les visages de tous les militaires de haut rang. Face à cette menace, une réponse naturelle et logique serait l’anonymat total des forces armées.
Les publications sur Facebook seraient interdites. Les profils Twitter supprimés. Les séances de photos seraient évitées. Les armées du monde développé seraient forcées de rentrer rapidement dans l’ombre.
Ce qui est inquiétant, c’est que cela conduirait à une grande décroissance de la transparence. Dans un monde où le visage d’une personne peut être utilisé comme arme, les armées doivent nécessairement être sans visage. Il sera de plus en plus difficile de demander des comptes aux individus, car ils seraient protégés par un droit sécuritaire à la vie privée.
Le déclin de la responsabilité est le résultat naturel de la guerre ciblée.
Si vous connaissez mon visage, la logique veut que vous me traquiez et me tuiez – donc, je ne vous laisserai pas connaître mon visage. Mais toute la base d’une procédure juridique régulière dans les démocraties libérales consiste à identifier l’accusé. Et, si l’accusé ne peut pas être identifié, alors les poursuites pour des questions telles que les crimes de guerre ou le meurtre seront plus difficiles à engager. Les généraux deviendront anonymes. Les commandants porteront des masques.
Cela pourrait également créer des problèmes de morale. L’éloge public du héros de guerre ne sera plus possible. L’anonymat ne se prête pas aux cérémonies de remise de médailles alimentées par la propagande.
Cela peut également conduire à la recherche par l’ennemi d’objectifs plus « modestes ». Les politiciens, les chefs des services de santé, les médecins traumatologues, les pompiers, les policiers – leurs visages peuvent être visés. Une guerre totale pourrait être menée car la guerre des visages ne peut être menée contre des soldats portant des cagoules.
Malheureusement, tout cela est peut-être tout simplement inévitable. L’impulsion aveugle de la technologie nous mène déjà à cette position logique. Mais ce que l’homme peut faire, il peut le défaire. Ainsi, de même que les systèmes sont programmés pour reconnaître nos visages, peut-être devrons-nous rapidement reconnaître que le visage de ce futur violent est plus éloigné d’une défense utopique que certains imaginent.
Source : Byline Times, Iain Overton – 07-02-2022
Traduit par les lecteurs du site Les-Crises
Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation.
Commentaire recommandé
Le problème supplémentaire qui n’est pas évoqué c’est que ces drones peuvent être piraté et détournés ou la technologie reprise par des terroristes comme c’est arrivé de par le passé et là bonne chance, le chaos s’installera partout plus un seul endroit qui ne sera paisible même pour nos dirigeants si prompt à appuyer sur le bouton pour assouvir leur hystérie sécuritaire.
15 réactions et commentaires
Le problème supplémentaire qui n’est pas évoqué c’est que ces drones peuvent être piraté et détournés ou la technologie reprise par des terroristes comme c’est arrivé de par le passé et là bonne chance, le chaos s’installera partout plus un seul endroit qui ne sera paisible même pour nos dirigeants si prompt à appuyer sur le bouton pour assouvir leur hystérie sécuritaire.
+16
AlerterJe pense que cette technologie ne sera pas utilisée pour de la reconnaissance faciale d’individus mais pour rechercher des formes de combattants ( casque recouvert de tissu feuillage ) ou d’équipements militaires ( bout de mitrailleuses ou de lance roquettes qui dépassent ) camouflés et cherchant à se fondre dans le décor . Je vais me renseigner .
Pour la protection d’aéroport ou de zones comme l’ancienne zone verte à Bagdad la reconnaissance faciale peut être utilisée.
Mais un aéroport sera attaqué par des roquettes ayant une portée de plusieurs dizaines de km
+0
AlerterLe risque ce sont les états, les agences de renseignements car quand bien même des « terroristes » s’empareraient de la technologie ils ne le font qu’en étant l’instrument de certains états et pour l’intérêt de ceux-ci.
Les assassinats par drone sont déjà une réalité qu’elles soient leurs finalités
+10
AlerterUn autre problème qui n’est pas mentionné et qui pose un véritable PROBLÈME : nous avons tous/toutes paraît-il un jumeau quelque part dans le monde. Si par malheur vous ressemblez de manière très significative à l’une de leurs cibles ne risque-t-on pas d’avoir quelques tristes bavures qui resteront juste un dommage co-latéral sans aucun jugement possible !?!
+2
AlerterSi vous ressemblez à Kim Jong-un mieux vaut changer de coiffure et éventuellement changer de lunettes dans de brefs délais.
Sur RFI
La Corée du Nord testerait un «nouveau système» de missiles intercontinentaux (États-Unis)
https://www.rfi.fr/fr/en-bref/20220310-la-cor%C3%A9e-du-nord-testerait-un-nouveau-syst%C3%A8me-de-missiles-intercontinentaux-%C3%A9tats-unis
+0
AlerterQuel est donc ce pays qui ne conçoit la vie et la société que sous la forme d’antagonismes généralisés, le combat permanent de tous contre tous. Un pays dans lequel des intelligences brillantes se mettent au service d’une intelligence artificielle fondée sur des algorithmes (rationalité binaire mécanique aveugle).
L’aphorisme de je ne sais plus quel dirigeant US: « quand nous ne trouvons pas la solution d’un problème, nous l’écrasons », est de plus en plus d’actualité et pourrait en l’occurence ici se formuler « quand des humains nous résistent, nous les tuons »…ou « ce que nous ne comprenons pas nous l’éliminons »…chirurgicalement bien entendu grâce à des drônes intelligents.
+6
Alerter« une intelligence artificielle fondée sur des algorithmes (rationalité binaire mécanique aveugle) »..
Pour l’instant (et pour longtemps encore), les « intelligences artificielles » sont basées sur des algorithmes obscurs d’apprentissage profond » (deep learning) dont les concepteurs eux-mêmes ne comprennent pas le fonctionnement (des « bidouilles de coin de table ») et qui peuvent partir en vrille sans qu’on ne sache réellement pourquoi (et sans avoir la possibilité de les corriger).
Il n’y a AUCUNE rationalité dans les IA… Ces systèmes sont surtout très lucratifs pour les entreprises qui les développent et les commercialisent mais un simple moustique est largement plus intelligent et censé que ces « machins » qui peuvent à tout instant et sans raison apparente devenir « fous » (terme mal employé car pour être fou il faudrait, avant de le devenir, posséder une conscience)…
La « créativité » humaine est infinie, particulièrement quand il s’agit de massacrer d’autres humains et quand il s’agit de s’enrichir au delà du raisonnable.
Si de plus on combine les deux, comme dans le cas de « drones intelligents », on ne touche même plus le fond de la stupidité humaine mais on creuse frénétiquement notre propre tombe.
Quand au fait de hacker ces engins, n’oublions jamais que les hackers ont une créativité largement supérieure à tous les « grands esprits » et que même les bunkers cybernétiques de la CIA et la la NSA sont des passoires pour les hackers.
Petite dystopie réalisée par des personnes compétentes pour alerter sur les « progrès techniques » : https://www.youtube.com/watch?v=9fa9lVwHHqg
À mon avis, « nos » dirigeants sont assez tarés pour que ce cauchemar puisse un jour devenir une réalité.
+5
AlerterJe voulais dire qu’il existe des formes de « rationalité » grossières, simplistes et séparées des autres processus psychiques qui relèvent en fait de ce qu’on a parfois désigné comme une « folie rationnelle », en tout cas dont certain technologues semblent coutumiers.
En effet « « nos » dirigeants sont assez tarés pour que ce cauchemar puisse un jour devenir une réalité. »
Ce qui fait que si ce n’est pas une guerre nucléaire ou le changement climatique qui exterminent l’espèce humaine, ces tarés sont tout à fait capable d’y arriver à leur « insu de leur plein gré »…
+0
AlerterMoralité, si vous êtes un combattant, portez un masque Titi ou Gros minet style farces et attrapes et vous serez invisible pour cette quincaillerie technologique. (Mais peut-être que son logiciel a une parade aux profils atypiques et masques divers…)
Enfin pour rappeler un Mc Solaar qui date 1995 La Concubine de l’hémoglobine…. »Parce que la science nous balance sa science
Science sans conscience égale science de l’inconscience
Elle se fout du progrès, mais souhaite la progression
De touts les processus qui mènent à l’élimination »
Du moment que cela se vend.
+3
AlerterSauf si le drone exige que vous montriez votre visage pour vous reconnaitre parmi les « amis ». Dans ce cas tout le monde devra obligatoirement être catalogué.
+0
AlerterLe pire c’est de se dire que sans la complicité active des « medias sociaux » , CAD de quelques grosse turnes ricaines financées pour partie sur le budget du pentagone, tout ceci serait impossible vu que personne n’aurait légalement pu enfreindre le droit à l’image de tout un chacun aussi impunément. (C’est ça le vrai scandale des réseaux sociaux ; les abandons de propriété intellectuelles planquées dans les CLUFs).
Encore une fois, les USA avec leurs lois de merde et leurs boites à milliardaires se donnent encore un moyen de plus pour pouvoir en finir la vie de tout un chacun. Personnellement pour le coup.
Enfin si ça peut leur éviter les 149 victimes collatérales quand ils drônent 1 supposé terroriste dans un mariage de 150 personnes, ça n’aura pas QUE des mauvais côtés … encore faudrait il que ça soit pas des fondus aux commandes du truc ce qui n’est pas du tout assuré vu le niveau d’hystérie ambiante.
+5
AlerterAvec les drones le sens du devoir est définitivement perdu.
Pour la détente je vous mets deux liens youtube sur des interprétations de la chanson la plus antimilitariste que je connaisse Morales.
En ces temps de bellicisme peut de chance que vous l’entendiez à la télé ou à la radio.
https://youtu.be/XAA75VJjVwE
https://youtu.be/nq2Yi3rsK_g
+1
AlerterManipuler un chaman QAnon pourrait suffire.
Et question chamane la Russie en possède pas mal.
L’élite de Saint Petersbourg voyait ainsi Raspoutine.
+0
AlerterBof…un détail de plus dans l’incroyable arsenal des engins de mort. Bientôt la puce Marche/Arrêt injectable a la naissance! Plus légèrement, je rigole devant la dystopie mania actuelle. Plus un article sans ce mot quel que soit le sujet ou presque😄. Comme « résilience » servi avec une belle variété de sauces. La novlangue médiatique!
+1
AlerterLu sur Ouest-France Direct Ukraine 13 mars 22h49
L’Ukraine a commencé à utiliser le système de reconnaissance faciale controversé Clearview AI
Le ministère ukrainien de la Défense a commencé hier à utiliser la technologie de reconnaissance faciale controversée de Clearview AI, après que la startup américaine a proposé de démasquer les assaillants russes, de lutter contre la désinformation et d’identifier les morts, rapporte Reuters. L’entreprise américaine Clearview AI est régulièrement critiquée concernant la surveillance de masse.
L’Ukraine dispose désormais d’un accès gratuit au puissant système de reconnaissance facial, permettant aux autorités de potentiellement reconnaître les personnes d’intérêt aux points de contrôle, entre autres utilisations, a expliqué Lee Wolosky, conseiller de Clearview et ancien diplomate sous les présidents américains Barack Obama et Joe Biden.
Peut-être pas encore sur les drones?
+2
AlerterLes commentaires sont fermés.