Un employé de Google affirme que le sentiment général des salariés est que l’entreprise ne devrait pas être dans le « business de la guerre. »
Source : Truthout, Julia Conley, CommonDreams
Traduit par les lecteurs du site Les-Crises
Quelques semaines après le début du second mandat du président américain Donald Trump, Google a supprimé mardi de ses principes d’IA responsable un engagement à ne pas utiliser l’intelligence artificielle pour développer des technologies susceptibles de causer un « préjudice global », notamment en matière d’armement et de surveillance – revenant ainsi sur un engagement que les employés avaient réclamé il y a sept ans en rappelant à l’entreprise sa devise de l’époque : « Don’t be evil » (Ne jouez pas au diable).
Cette maxime a été supprimée du code de conduite de l’entreprise peu après que des milliers d’employés ont exigé que Google mette fin à sa collaboration avec le Pentagone sur une technologie de drone potentielle en 2018, et cette semaine, les responsables du géant de la Silicon Valley ont annoncé qu’ils ne pouvaient plus promettre qu’ils s’abstiendraient de développer des armes utilisant l’IA.
James Manyika, vice-président senior pour la recherche, la technologie et la société, et Demis Hassabis, PDG du laboratoire de recherche en IA DeepMind, ont écrit dans un billet de blog sur les progrès de « l’IA responsable » que dans « un paysage géopolitique de plus en plus complexe […] les démocraties devraient mener le développement de l’IA, guidées par des valeurs fondamentales telles que la liberté, l’égalité et le respect des droits humains. »
« Nous pensons que les entreprises, les gouvernements et les organisations qui partagent ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale, » ont-ils dit.
Jusqu’à mardi, Google s’engageait à ce que les « applications que nous ne poursuivrons pas » avec l’IA incluent les armes, la surveillance, les technologies qui « causent ou sont susceptibles de causer un préjudice global » et les utilisations qui violent le droit international et les droits humains.
Un journaliste et auteur s’est interrogé : « Est-ce aussi terrifiant que cela en a l’air ? » lorsque la mention de ces applications a disparu de la page des principes de l’entreprise en matière d’IA, où elle figurait encore la semaine dernière.
Margaret Mitchell, qui codirigeait auparavant l’équipe de Google chargée de l’IA éthique, a déclaré à Bloomberg que la suppression des principes « efface le travail que tant de personnes de l’espace de l’IA éthique et de l’espace militant ont accompli chez Google et, plus problématique encore, cela signifie que Google travaillera probablement désormais à déployer directement une technologie qui peut tuer des gens. »
La page des principes de l’IA mise à jour par l’entreprise indique qu’elle mettra en œuvre une « surveillance humaine appropriée » pour aligner son travail sur les « principes largement acceptés du droit international et des droits humains » et qu’elle utilisera des tests et un suivi « pour atténuer les résultats involontaires ou nuisibles et éviter les préjugés injustes. »
Mais Google s’alignant sur l’administration Trump, la défenseuse des droits humains Sarah Leah Whitson, de Democracy for the Arab World Now, a qualifié l’entreprise de « machine de guerre industrielle » après l’annonce de mardi.
Google a fait don d’un million de dollars au comité d’investiture de Trump, aux côtés d’autres géants de la technologie, et a envoyé son PDG Sundar Pichai à l’investiture de Trump, où il était assis à côté du principal allié du président dans l’industrie, Elon Musk.
Depuis que Trump a remporté l’élection en novembre, les entreprises technologiques ont également pris leurs distances par rapport à leurs engagements antérieurs en faveur de la diversité, de l’équité et de l’inclusion dans leurs pratiques d’embauche et sur le lieu de travail, car Trump a directement ciblé les programmes DEI [Diversité, équité et inclusion, NdT] au sein du gouvernement fédéral.
« Il est très préoccupant de voir Google renoncer à son engagement en faveur de l’utilisation éthique de la technologie de l’IA sans que ses employés ou le grand public n’aient leur mot à dire », a déclaré mardi à Wired, Parul Koul, ingénieur logiciel chez Google et président de l’Alphabet Union Workers-CWA (syndicat des travailleurs d’Alphabet).
Chez Google, a ajouté Koul, « les employés ont toujours le sentiment que l’entreprise ne devrait pas s’occuper de la guerre. »
*
Julia Conley est rédactrice pour Common Dreams.
Source : Truthout, Julia Conley, CommonDreams, 05-02-2025
Traduit par les lecteurs du site Les-Crises
Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation.
1 réactions et commentaires
Malheureusement, l’expérience montre que les principes « Éthiques » des entités capitalistes finissent toujours par être transgressés secrètement d’abord, puis ouvertement…
+0
Alerter