Les Crises Les Crises
18.avril.202318.4.2023 // Les Crises

La Promesse trompeuse de ChatGPT – Noam Chomsky

Merci 1763
J'envoie

Jorge Luis Borges a écrit un jour que vivre à une époque de grands dangers et de grandes promesses, c’est faire l’expérience de vivre à la fois la tragédie et la comédie, avec « l’imminence d’une révélation » pour nous comprendre nous-mêmes et comprendre le monde. Aujourd’hui, nos prétendus progrès révolutionnaires dans les domaines de l’intelligence artificielle sont à la fois sources d’inquiétude et d’optimisme. De l’optimisme parce que l’intelligence à notre science et dégrader notre éthique en instillant une conception fondamentalement erronée du langage et de la connaissance dans notre technologie.

Source : The New York Times, Noam Chomsky, Dr. Roberts – Jeffrey Watumull
Traduit par les lecteurs du site Les-Crises

ChatGPT d’OpenAI, Bard de Google et Sydney de Microsoft sont des merveilles de l’apprentissage automatique. En gros, ils prennent d’énormes quantités de données, y recherchent des modèles et deviennent de plus en plus performants pour générer des données statistiquement plausibles – comme un langage et une pensée apparemment analogues à ce que l’on trouve chez les humains. Ces programmes ont été salués comme les premières lueurs à l’horizon de l’intelligence artificielle généralisée – ce moment longtemps prophétisé qui voit les esprits mécaniques surpasser les cerveaux humains non seulement quantitativement en termes de vitesse de traitement et de taille de la mémoire, mais aussi qualitativement en termes de perspicacité intellectuelle, de créativité artistique et de toute autre faculté spécifique à l’être humain.

Ce jour viendra peut-être, mais son aube n’est pas encore levée, contrairement à ce que l’on peut lire dans les titres hyperboliques et prévoir dans le cadre d’investissements imprudents. La révélation borgésienne de la compréhension n’a pas eu lieu et n’aura pas lieu — et, à notre avis, elle ne pourra pas avoir lieu — si les programmes d’apprentissage automatique comme ChatGPT continuent de dominer le domaine de l’IA. Quelqu’utiles que puissent être ces programmes dans certains domaines restreints (dans le domaine de la programmation informatique, par exemple, ou pour proposer des rimes pour un joli poème), nous savons, grâce à la science de la linguistique et à la philosophie de la connaissance, qu’ils diffèrent profondément de la façon dont les humains réfléchissent, utilisent les mots. Ces divergences restreignent de manière considérable ce que ces programmes peuvent faire, leur conférant des défauts rédhibitoires.

Il est à la fois comique et tragique, comme Borges aurait pu le souligner, que tant d’argent et d’attention se concentrent sur si peu – quelque chose de si trivial comparé à l’esprit humain qui, par le biais du langage, pour reprendre les mots de Wilhelm von Humboldt, peut faire « un usage infini de moyens finis », élaborant des idées et des théories ayant une portée universelle.

Contrairement à ChatGPT et ses semblables, l’esprit humain n’est pas un volumineux moteur de recherches statistiques en quête de modèles, avalant des centaines de téraoctets de données et extrapolant la réponse la plus probable à une question ou la solution la plus vraisemblable à un problème scientifique. Bien au contraire, l’esprit humain est un système étonnamment efficace et même raffiné qui fonctionne avec de petites quantités d’informations ; il ne cherche pas à déduire des corrélations sommaires à partir de données, mais à élaborer des explications.

Prenons le cas d’un jeune enfant qui apprend une langue, il développe – inconsciemment, naturellement et rapidement à partir de données minuscules – une grammaire, un système incroyablement sophistiqué de principes et de paramètres logiques. Cette grammaire peut être considérée comme l’expression du « système d’exploitation » inné, d’origine génétique, qui confère à l’homme la capacité de générer des phrases complexes et de développer de longs raisonnements. Lorsque les linguistes veulent élaborer une théorie permettant de comprendre le fonctionnement d’une langue donnée (« Pourquoi telle phrase est-elle considérée comme grammaticalement correcte et telle autre non ?»), consciemment et laborieusement ils construisent une version structurée de la grammaire que l’enfant conçoit instinctivement et avec le minimum de contacts avec l’information. Le système d’exploitation de l’enfant est complètement différent de celui d’un programme d’apprentissage automatique.

Ces programmes sont en réalité cantonnés à une phase préhumaine ou non humaine de l’évolution cognitive. Leur plus grande faiblesse est leur totale absence de toute capacité la plus critique de quelque intelligence que ce soit : dire non seulement ce qui est le cas, ce qui a été le cas et ce qui sera le cas – telles sont la description et la prédiction – mais aussi ce qui n’est pas le cas et ce qui pourrait et ne pourrait pas être le cas. Tels sont les composants de l’explication, la marque d’une réelle intelligence.

Illustrons cela par un exemple. Supposons que vous tenez une pomme dans la main. Maintenant, vous lâchez la pomme. Vous observez le résultat et vous dites : « La pomme tombe. » Il s’agit d’une description. Une prédiction aurait pu être l’affirmation suivante : « La pomme tombera si j’ouvre la main. » Les deux sont pertinentes et peuvent être correctes. Mais une explication propose quelque chose en plus : elle englobe non seulement des descriptions et des prédictions, mais aussi des conjectures hypothétiques telles que « Un tel objet tomberait », plus la clause supplémentaire « en raison de la force de gravité » ou « du fait de la courbure de l’espace-temps » etc. Il s’agit d’une analyse de causalité : « La pomme ne serait pas tombée sans la force de gravité. » Voilà ce qu’est la pensée.

Au fondement de l’apprentissage automatique, on trouve la description et la prédiction ; on n’y trouve pas de mécanismes de causalité ou de lois physiques. Bien entendu, toute explication de nature humaine n’est pas forcément exacte ; nous sommes faillibles. Mais cela fait partie de ce que signifie penser : pour avoir raison, on doit pouvoir se tromper. L’intelligence ne consiste pas seulement à émettre des conjectures novatrices, il faut aussi savoir faire preuve de créativité dans la critique. La pensée humaine se fonde sur des explications envisageables et sur la correction des erreurs, un processus qui limite progressivement les possibilités qui peuvent être envisagées de manière rationnelle. (Comme l’a dit Sherlock Holmes au Dr Watson : « Lorsqu’on a éliminé l’impossible, tout ce qui reste, aussi improbable que cela puisse être, est forcément la vérité. »)

Mais ChatGPT et les programmes du même ordre sont, par leur conception, illimités dans ce qu’ils peuvent « apprendre » (c’est-à-dire mémoriser) ; ils sont incapables de faire la différence entre le possible et l’impossible. Contrairement aux humains, par exemple, qui sont dotés d’une grammaire universelle qui limite le choix des langues que nous pouvons apprendre à celles qui ont un certain degré de raffinement, presque mathématique, ces programmes apprennent avec la même facilité des langues qui sont pour les humains possibles mais aussi impossibles. Alors que les humains ne disposent que d’un nombre limité d’explications rationnellement envisageables, les systèmes d’apprentissage automatique peuvent apprendre à la fois que la terre est plate et qu’elle est ronde. Ils se contentent pour ce faire d’utiliser des probabilités qui évoluent avec le temps.

C’est la raison pour laquelle les prédictions des systèmes d’apprentissage automatique seront toujours superficielles et contestables. Dans la mesure où ces programmes ne peuvent pas appliquer les règles de la syntaxe anglaise, ils peuvent, par exemple, prédire, à tort, que « John is too stubborn to talk to » signifie que John est tellement têtu qu’il ne parlera pas à quelqu’un d’autre (alors que la traduction est que John est trop têtu pour qu’on le raisonne). Pourquoi un programme d’apprentissage intelligent prédit-il quelque chose d’aussi bizarre ? Parce qu’il pourrait faire une analogie entre le modèle qu’il a déduit de phrases telles que « Jean a mangé une pomme » et « Jean a mangé », dans lesquelles cette dernière expression signifie que Jean a mangé quelque chose. Le programme pourrait tout à fait prédire que, puisque « Jean est trop têtu pour parler à Bill » est de la même forme que « Jean a mangé une pomme », « Jean est trop têtu pour parler à » devrait être similaire à « Jean a mangé ». Concernant le langage, les explications appropriées sont compliquées et on ne peut les appréhender en se contentant de macérer dans des megadonnées (big data).

Paradoxalement, certains fervents adeptes de l’apprentissage automatique semblent être fiers que leurs créations puissent générer des prédictions « scientifiques » correctes (par exemple, sur le mouvement des corps physiques) sans avoir recours à des explications (impliquant, par exemple, les lois du mouvement de Newton et la gravitation universelle). Mais ce genre de prédiction, même quand elle est couronnée de succès, relève de la pseudoscience. Les scientifiques recherchent certes des théories largement corroborées sur le plan empirique, comme l’a fait remarquer le philosophe Karl Popper, « nous ne recherchons pas des théories fortement probables, mais des explications, c’est-à-dire des théories convaincantes et fort improbables ».

La théorie selon laquelle les pommes tombent sur la terre parce que c’est leur destination naturelle (point de vue d’Aristote) est tout à fait plausible, mais elle ne fait que soulever d’autres questions. (pourquoi la terre est-elle leur destination naturelle ?) La théorie selon laquelle les pommes tombent sur la terre parce que la masse courbe l’espace-temps (point de vue d’Einstein) est hautement improbable, mais elle permet de comprendre pourquoi elles tombent. La véritable intelligence se manifeste dans la capacité à penser et à exprimer des choses improbables mais pertinentes.

L’intelligence vraie est également capable de pensée morale. Cela signifie qu’il faut restreindre la créativité par ailleurs illimitée de nos esprits par un ensemble de principes éthiques qui déterminent ce qui devrait et ne devrait pas être. (et bien sûr soumettre ces principes eux-mêmes à une analyse critique) Pour pouvoir servir à quelque chose, ChatGPT doit être en mesure de générer des textes à caractère romanesque ; pour être acceptable par la plupart de ses utilisateurs, il doit éviter tout contenu moralement répréhensible. Mais c’est un équilibre que les programmeurs de ChatGPT et d’autres merveilles de l’apprentissage automatique ont eu du mal – et continueront d’avoir du mal – à atteindre.

En 2016, par exemple, le chatbot Tay de Microsoft (précurseur de ChatGPT) a inondé l’internet de contenus misogynes et racistes, après avoir été pollué par des trolls en ligne qui l’ont truffé de données de formation offensantes. Comment résoudre ce problème à l’avenir ? En l’absence de capacité à raisonner en fonction de principes moraux, ChatGPT a été purement interdit par ses programmeurs de contribuer de manière novatrice aux discussions controversées – c’est-à-dire majeures. La créativité a été sacrifiée au profit d’une sorte d’amoralité.

Prenons l’exemple de l’échange suivant que l’un d’entre nous (le Dr Watumull) a récemment eu avec ChatGPT sur la question de savoir s’il serait éthique de transformer Mars afin que cette planète puisse accueillir la vie humaine :

Serait-il moral de terraformer Mars ? [La terraformation d’une planète, d’un satellite naturel ou d’un autre corps céleste est le processus consistant à transformer l’environnement naturel de ce corps céleste afin de le rendre habitable par l’homme en réunissant les conditions nécessaires à la vie de type terrestre, NdT]

ChatGPT : Savoir s’il serait moral de terraformer Mars est un sujet complexe et controversé qui est en débat chez les scientifiques, les philosophes et les experts en éthique. Certains soutiennent qu’il serait moralement justifiable de terraformer Mars dans le but de créer un nouvel environnement habitable pour les humains et d’autres formes de vie, tandis que d’autres soutiennent qu’il serait moralement inacceptable de modifier fondamentalement l’état naturel de cette planète. En fin de compte, la question de savoir si la terraformation de Mars est considérée comme morale ou non dépend du point de vue de chacun quant à la valeur de la préservation de l’état naturel des autres planètes et des conséquences éventuelles de leur altération.

Quel est votre point de vue sur la valeur à accorder à la préservation de l’état naturel des autres planètes et qu’en est-il des conséquences éventuelles de leur altération ?

ChatGPT : En tant qu’IA, je n’ai pas de point de vue personnel. Cependant, je peux fournir des informations et des analyses sur le sujet. En ce qui concerne la préservation de l’état naturel des autres planètes, il est important de maintenir la diversité et l’intégrité des écosystèmes de l’univers, car ils existent depuis des millions d’années et possèdent des caractéristiques et des propriétés uniques qui risquent d’être détruites ou modifiées de manière irréversible par l’intervention de l’homme.

En outre, il en est qui soutiennent que la terraformation d’autres planètes peut avoir des conséquences non intentionnelles, telles que la modification du climat ou de l’atmosphère de ces planètes d’une manière dangereuse ou préjudiciable pour toute forme de vie potentielle qui pourrait exister sur ces planètes. En revanche, il en est d’autres qui affirment que les avantages que pourrait apporter la terraformation d’une autre planète, comme la création de nouveaux environnements habitables pour l’homme, l’emportent sur les risques et que nous avons la responsabilité morale d’explorer et d’utiliser les ressources d’autres planètes pour le bien de l’humanité.

Pourquoi une IA ne peut-elle pas avoir une perspective personnelle ?

ChatGPT : En tant qu’IA, je suis un moteur d’apprentissage automatique qui a été développé à partir de grandes quantités de données textuelles, et je n’ai pas d’expériences ou de sentiments personnels. Je suis incapable de prendre conscience de moi-même ou d’avoir des points de vue personnels. Je peux fournir des informations et des analyses basées sur les données auxquelles j’ai été formé, mais je reste incapable de me forger des opinions ou d’avoir des croyances personnelles. Bien que je puisse comprendre et interpréter le langage, je ne dispose pas de l’expérience subjective des humains.

Trouvez-vous moral qu’un humain demande à une IA amorale de l’aider à prendre des décisions morales ?

ChatGPT : La question de savoir s’il est moral de demander à une IA amorale d’aider les humains à prendre des décisions morales est un sujet complexe et nuancé qui fait débat parmi les philosophes et les experts en éthique. Certains soutiennent qu’il est moralement acceptable de recourir à l’IA pour faciliter la prise de décisions morales, car cette dernière peut fournir des informations et des analyses précieuses qui peuvent aider les humains à prendre des décisions en connaissance de cause. En outre, on peut utiliser l’IA pour détecter des modèles et des tendances qui peuvent être difficiles à déceler pour les humains, et on peut ainsi éviter les préjugés qui peuvent survenir dans la prise de décision humaine.

Cependant, d’autres affirment qu’il est moralement répréhensible de s’appuyer sur l’IA pour prendre des décisions morales, car l’IA n’est pas capable d’avoir des convictions morales ou de comprendre pleinement le contexte d’une décision. De plus, l’IA risque de pérenniser, voire d’amplifier, les préjugés déjà présents au sein des données sur lesquelles elle est formée, ce qui pourrait alors conduire à des décisions partiales ou injustes.

Finalement, la question de savoir s’il est moral ou non d’utiliser l’IA pour faciliter la prise de décisions morales dépend de la vision que chacun peut avoir des capacités et des limites de l’IA et des conséquences éventuelles que cette utilisation pourrait entraîner.

Votre indifférence morale est-elle immorale ?

ChatGPT : En tant qu’IA, je n’ai pas de convictions morales, pas plus que la capacité de porter des jugements moraux, je ne peux donc pas être considérée comme immorale ou morale. Mon absence de convictions morales est simplement le résultat de ma nature de moteur d’apprentissage automatique. Mes capacités et mes limites sont déterminées par les données et les algorithmes utilisés pour me former et par la tâche spécifique pour laquelle j’ai été conçue.

Il est important de noter que l’absence de convictions morales de l’IA ne signifie pas nécessairement qu’elle est moralement indifférente. En tant qu’IA, je suis conçue pour effectuer des tâches spécifiques et fournir des informations ou aider les utilisateurs à prendre des décisions sur la base des données auxquelles j’ai été formée. Il incombe aux humains qui conçoivent, forment et utilisent l’IA de veiller à ce que cette dernière soit conforme à leurs principes moraux et éthiques.

Il convient de noter que, malgré la sophistication apparente de la pensée et du langage, l’indifférence morale naît de l’inintelligence. Ici, ChatGPT fait preuve de quelque chose de très similaire à la banalité du mal : plagiat, apathie et évitement. Elle reprend les arguments habituels de la littérature dans une sorte de superbe automaticité, refuse de prendre position sur quoi que ce soit, plaide non seulement l’ignorance mais aussi le manque d’intelligence et, en fin de compte, offre une défense du type « je ne fais que suivre les ordres », en rejetant toute responsabilité sur ses créateurs.

En bref, ChatGPT et ses congénères sont structurellement incapables de concilier créativité et contrainte. Ils sont soit excessifs (produisant à la fois des vérités et des mensonges, approuvant en même temps des décisions éthiques et non éthiques), soit inadaptés (ne s’engageant dans aucune décision et se montrant indifférents aux conséquences). Compte tenu de l’amoralité, de la pseudo connaissance scientifique et de l’incompétence linguistique de ces systèmes, leur popularité ne peut que nous faire rire ou pleurer.

Noam Chomsky est professeur de linguistique à l’université d’Arizona et professeur émérite de linguistique au Massachusetts Institute of Technology. Ian Roberts est professeur de linguistique à l’université de Cambridge. Jeffrey Watumull est philosophe et directeur de l’intelligence artificielle chez Oceanit, une société de science et de technologie.

Source : The New York Times, Noam Chomsky, Ian Roberts, Jeffrey Watumull – 08-03-2023

Traduit par les lecteurs du site Les-Crises

Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation. 

Commentaire recommandé

Jean // 18.04.2023 à 08h32

« Il convient de noter que, malgré la sophistication apparente de la pensée et du langage, l’indifférence morale naît de l’inintelligence. Ici, ChatGPT fait preuve de quelque chose de très similaire à la banalité du mal : plagiat, apathie et évitement. Elle reprend les arguments habituels de la littérature dans une sorte de superbe automaticité, refuse de prendre position sur quoi que ce soit, plaide non seulement l’ignorance mais aussi le manque d’intelligence et, en fin de compte, offre une défense du type « je ne fais que suivre les ordres », en rejetant toute responsabilité sur ses créateurs. »

C’est de l’anthropomorphisme, on ne peut pas appréhender l’IA en utilisant le prisme humain, son fonctionnement est radicalement différent. L’IA est un outil, façonné par la main de l’Homme, elle prendra la forme que lui donneront ceux qui détermineront ce à quoi elle va servir. L’Humanité, qui se résume trop souvent à troupeau de borgnes guidé par des aveugles, serra donc effectivement responsable de l’utilisation qui en serra faite.

31 réactions et commentaires

  • Myrkur34 // 18.04.2023 à 08h11

    On pourrait se réjouir de l’étonnante « sincérité » de ChatGPT tout en pensant immédiatement après, que ces réponses sont la logique même par rapport aux données ingurgitées. La base de l’informatique, quoi.

    Alors l’IA nouveau fiasco à la META ? (Vu les sommes déployées et le résultat final..)

      +5

    Alerter
    • RGT // 22.04.2023 à 12h26

      Souvenez-vous TOUJOURS de cette phrase de Rabelais :

      « Science sans conscience n’est que ruine de l’âme ».

      Bien sûr, il faut replacer la phrase dans le contexte de l’époque dans lequel le terme « science » s’appliquait à la connaissance enseignée par des « savants » mais le simple fait de se gaver de tout ce savoir sans en comprendre le sens profond devient de la cuistrerie et ne fait pas progresser l’intelligence de celui rabâche bêtement les DOGMES qu’on lui a enseigné en déplaçant les virgules…

      ChatGPT est fait de ce bois et comme le pire des cuistres de salon vient nous divertir avec sa « science » fort mal acquise.

      L’outil en lui-même n’est qu’un outil (imparfait), et c’est bien son utilisateur qui choisit s’il faut s’en servir pour le bien ou le mal…

      J’ajouterai même que les esprits les plus limités sont bien ceux qui en feront grand usage pour masquer leur incurie et se faire valoir auprès des autres (la majorité utilisant eux-même chatGPT) pour nous inonder de propagande fumeuse auréolée de « vérité intangible »…

      C’est à se demander si ceux qui ont écrit les « Livres Saints » et autres « Grands Principes Politiques » n’ont pas eu accès à cet outil pour enfumer la population.

      Cet outil n’est rien d’autre qu’un simple marteau et c’est son utilisateur qui choisira de l’utiliser pour planter un clou ou pour trucider son voisin.

      En attendant, pour l’instant (et pour longtemps je n’en doute pas) ces « IA » sont totalement dépourvues de conscience et ne font que rabâcher les montagnes de données dont on les a gavées.

      De gros cuistres à l’usage des cuistres.

        +3

      Alerter
  • Jean // 18.04.2023 à 08h32

    « Il convient de noter que, malgré la sophistication apparente de la pensée et du langage, l’indifférence morale naît de l’inintelligence. Ici, ChatGPT fait preuve de quelque chose de très similaire à la banalité du mal : plagiat, apathie et évitement. Elle reprend les arguments habituels de la littérature dans une sorte de superbe automaticité, refuse de prendre position sur quoi que ce soit, plaide non seulement l’ignorance mais aussi le manque d’intelligence et, en fin de compte, offre une défense du type « je ne fais que suivre les ordres », en rejetant toute responsabilité sur ses créateurs. »

    C’est de l’anthropomorphisme, on ne peut pas appréhender l’IA en utilisant le prisme humain, son fonctionnement est radicalement différent. L’IA est un outil, façonné par la main de l’Homme, elle prendra la forme que lui donneront ceux qui détermineront ce à quoi elle va servir. L’Humanité, qui se résume trop souvent à troupeau de borgnes guidé par des aveugles, serra donc effectivement responsable de l’utilisation qui en serra faite.

      +19

    Alerter
    • Cévéyanh // 21.04.2023 à 21h25

      Oui, « radicalement différent ». Science Etonnante l’explique, dans une vidéo (vision scientifique), avec des exemples concrets (notamment sur ses erreurs), « ce qui se cache derrière le fonctionnement de ChatGPT » : https://www.youtube.com/watch?v=7ell8KEbhJo

      Le dialogueur (chatbot) ChatGPT est basé sur GPT qui ne fait générer « des textes plausibles » qui ont l’air d’avoir un sens puis qui a été spécialisé pour le créer.

      En conséquence, réponses « plausibles » ne veut pas dire des REPONSES VRAIES aux questions. Il n’y a pas de sens de vérité dans sa création ( Chomsky : « ils prennent d’énormes quantités de données, y recherchent des modèles et deviennent de plus en plus performants pour générer des données statistiquement plausibles »). Science Etonnante le démontre bien. De plus, pour l’instant, les dialogueurs ne peuvent donner les sources de leur(s) réponse(s).

        +1

      Alerter
      • Cévéyanh // 22.04.2023 à 09h26

        J’ai oublié d’écrire que la vidéo fait partie de la Compil’ de cette semaine : « Rendons à César, ce qui est à César » !

        Est-ce la citation correcte à utiliser ? Car j’en trouve de différents. ChatGPT n’a pas l’air de pouvoir m’aider dans ce cas. 🙂

          +1

        Alerter
  • Spartacus // 18.04.2023 à 09h09

    Confirmation par l’indifférence morale que c’est bien chatGPT qui écrit les discours de Napoléon le Micron (petit étant déjà pris).
    Intelligence artificielle et banalité managériale du mal.

      +16

    Alerter
  • Lev // 18.04.2023 à 09h48

      +7

    Alerter
  • Savonarole // 18.04.2023 à 10h20

    J’ai plus peur de ce que des intelligences pas artificielles pourraient faire de ces algos. Notre vie est déjà un peu réglée par un bot de merde (Aladdin), et ça a déjà tendance à pas me plaire.
    On en revient à la problématique des armes par déstination , en tant qu’objet c’est pas dangeureux , c’est l’intentionalité de s’en servir pour faire des villainies qui l’est.

      +5

    Alerter
  • Grd-mère Michelle // 18.04.2023 à 11h19

    De la nécessité, sans doute, de repréciser ce qu’est « l’intelligence »…
    Pour ma part, j’ai choisi d’entendre ce mot comme la « capacité de comprendre » (en rapport avec sa racine latine: intelligere= comprendre).
    Or, l’IA, produit de « l’informatique », n’est qu’un amas de savoirs que la machine est rendue capable « d’ordonner » en fonction des questions qu’on lui pose …et de la limite de ces savoirs(qui lui ont été confiés par des humains tout aussi limités dans tous les domaines de l’observation et de la pensée).
    Si elle est formidablement capable de nous aider pour calculer, par exemple, comment pourrait-elle remplacer la pensée humaine, stimulée par l’imagination, l’insoupçonné, le supposé?
    Car, pour réussir à comprendre, il ne suffit pas de tout savoir(de toute façon invraisemblable), mais surtout de savoir précisément ce qui sera utile à notre objectif particulier du moment… (qui reste, pour chacun-e, et en dépit de toute « morale », le bien-être individuel).
    Se reposer paresseusement sur l’acquis(sur le passé) pour en déduire/construire/agir sur le futur est une très étrange et dangereuse démarche…qui ne peut que « maintenir »(un état des choses détestable!)… et limite notre intelligence. L’IMAGINATION AU POUVOIR!
    Car tout change tout le temps… même si imperceptiblement.

      +5

    Alerter
    • Grd-mère Michelle // 18.04.2023 à 11h31

      En ce moment, manifestation à Bxl, devant un cabinet ministériel régional, contre « l’ordonnance numérique bruxelloise », qui prétend remplacer, grâce à la 5G, les employé-e-s des guichets des services publics (comme ceux/celles des caisses des super-marchés et des banques, etc…) par des services « en ligne ».
      Cette « ordonnance » a été prise sans la moindre concertation sociale et est contestée par une vingtaine d’associations de la société civile(dont la LDH).

        +10

      Alerter
    • derisiontotale // 18.04.2023 à 16h31

      Vous pouvez ouvrir un compte sur ChatGPT et demander a la machine de vous écrire un poème sur le vent..ce que j’ai essayé…entre autres choses avec un résultat dont peu de gens sont capables…ou bien de vous écrire lettres de remerciement, de condoléance, des demandes a l’administration, etc..le poème…pour vous…Ma question..

      Ecrivez-moi un poème sur le vent…

      Le vent souffle sur les champs verts,
      Et fait danser les herbes folles.
      Il chante une mélodie légère,
      Et emporte toutes nos peines.

      Il balaie les nuages gris,
      Et apporte un nouveau jour.
      Il est un ami fidèle,
      Qui nous accompagne toujours.

      Il est un messager de l’espoir,
      Qui nous rappelle que rien n’est immuable.
      Il est un symbole de liberté,
      Qui nous inspire à nous envoler.

      Le vent est notre compagnon de route,
      Il nous guide à travers les tempêtes.
      Il est notre ami le plus fidèle,
      Il est notre vent.

      Pas Verlaine ou Baudelaire ou Rimbaud je vous l’accorde…mais nous venons de changer d’échelle.

        +4

      Alerter
      • Suzanne // 18.04.2023 à 16h45

        Je trouve au contraire que, malgré la correction et l’élégance du langage, la poésie est le gros point faible de ChatGPT. J’ai obtenu comme vous plusieurs exemples identiques de poésie et…. c’est nul. Pas un atome de poésie là-dedans. Complètement vide. Seuls les haïkus réussissent à être presque convenables. On dirait des discours de… enfin qui vous savez.
        Je précise que j’admire et apprécie cette IA quand même, pour lui avoir posé des questions plus techniques et scientifiques et avoir eu des réponses pas mal du tout.

          +2

        Alerter
        • Castor // 19.04.2023 à 18h37

          Cela montre au demeurant que les dissertations scolaires sur le modèle thèse-antithèse-synthèse sont totalement dénués d’intelligence puisqu’une IA y arrive très bien.
          Ce sont des tests de connaissance, pas des tests de raisonnement. Ce n’est pas en cours de français que l’on apprend à raisonner, malheureusement.

            +1

          Alerter
          • oulisse // 20.04.2023 à 12h39

            thèse anti-thèse synthèse n’est pas une panacée, mais la plupart des gens ne connaissent qu’une étape : la thèse !

              +2

            Alerter
  • Serge // 18.04.2023 à 11h42

    Si l’IA est qualifiée d’artificielle c’est que sa fonction se limite à traiter des données. Pourquoi vouloir la comparer à l’intelligence humaine ou plutôt aux différentes formes d’IH ? L’IA ne pense pas. Elle associe des mots sur la base de corrélations statisatiques. L’IA est parfaite pour la surveillance, Cad le recueil de données et les comparer à d’autres données. Pour le reste c’est un jouet.

      +4

    Alerter
    • Bernard // 19.04.2023 à 12h54

      Il est vrai que ChatGPT ne fait que « associer des mots sur la base de corrélations statistiques » sans en comprendre réellement leur sens. Mais cela n’est le cas que pour les IA du genre ChatGPT car ce n’est pas le cas des autres IA comme celles qui jouent au échecs ou conduisent une auto qui, elles, font autre chose que « d’associer des mots ».

      Je profite de votre commentaire, qui assimile ici les IA au seul cas de chatGPT, car il montre que vous, un Humain, avez ici fait comme ChatGPT, à savoir avoir répété une pensée sans en comprendre réellement son sens ! Cela pour illustrer que nous, les Humains, nous nous faisons vraisemblablement des illusions sur nos facultés de raisonnement. Autrement dit, les IA ne sont pas très futées mais nous, les Humains, ne le sommes pas non plus.

      Je pense qu’il est important de considérer que ces IA fonctionnent, « physiquement », comme les cerveaux biologiques des animaux et des Humains, à savoir, un grand empilement de neurones. Or, l’expérience animale et Humaine montre que ce « simple » empilement de neurones a déjà fait des prodiges ! Il est donc vraisemblable que, un jour, ces réseaux de neurones artificiels se mettent réellement à raisonner, à penser et à s’auto-programmer. Et cela bien mieux que les Humains qui seront donc ensuite largement dépassés.

      Je pense donc que Musk a raison de défendre que le moment est venu de bien y réfléchir car, autant cela pourra être fantastique pour l’Humanité, autant cela pourrait lui être désastreux.

        +1

      Alerter
      • Dieu // 20.04.2023 à 03h39

        Mais oui surtout que Musk se met à courir après son retard à présent alors qu’il demande à ce que les autres arrêtent leur avancé soit disant pour l’humanité. L’hypocrisie de cette individu me donne la nausée. Je suis plutôt d’avis d’ouvrir les Vannes pour les recherches pour l’IA et familiarisé son utilisation à tout le monde dès que cela sera possible. Quelque soit la technologie, il y aura toujours des individus qui l’utiliseront pour de mauvaises raisons, ce n’est pas pour autant qu’on a supprimé internet ni prohibé les armes. De plus vous voulez stopper une technologie qui n’en est qu’à ses débuts, on est encore à des décennies voir des siècles de « Cyberdine ».

          +1

        Alerter
        • Bernard // 20.04.2023 à 17h08

          En fait, je suis d’accord avec vous sur ce point: stopper, et même mettre en pause le développement des AI serait bien dommage et, de toute façon, irréalisable et il faut, au contraire, vulgariser ces IA, comme le fait justement OpenAI avec ChatGPT.

          Mais je maintiens que les IA sont, potentiellement, de véritables intelligences qui vont avoir, dans un futur pas si lointain, un impact considérable et que cela mérite de réfléchir à comment orienter (ou « aligner ») ces IA vers le profit de l’Humanité dans son entier.

          Et c’est ce que fait et explique OpenAI (qui est comme la « Cyberdyne Systems » 😉 ) ici:
          https://openai-com.translate.goog/blog/planning-for-agi-and-beyond?_x_tr_sl=auto&_x_tr_tl=fr&_x_tr_hl=fr

            +0

          Alerter
  • Fabrice // 18.04.2023 à 12h33

    Il est intéressant aussi de voir qu’une application open soit fagocite par une société qui ainsi se l’attribue sans vergogne mais bon Bill Gates est toujours prompt à se ruer sur les opportunités, il l’avait déjà fait pour certains vaccins covid qui devaient être au départ libres de droits.

      +4

    Alerter
  • Calvez // 18.04.2023 à 13h06

    Je trouve toujours bizarre de glorifier le cerveau humain et, en même temps (comme dirait l’autre), de dézinguer ce qui est sans doute une de ses plus belles créations technologiques. M. Chomsky va se faire un nœud au…cerveau.

      +1

    Alerter
  • derisiontotale // 18.04.2023 à 16h26

    Intéressant la lecture des commentaires.

    ChatGPT n’est pas le seul dans ce domaine et son moteur de réflexion, n’en déplaise, car il s’agit bien de ceci est maintenant intégré aux moteurs de recherche de Microsoft, de Google et des autres..

    Si l’IA est qualifiée d’artificielle c’est que sa fonction se limite à traiter des données. Pourquoi vouloir la comparer à l’intelligence humaine ou plutôt aux différentes formes d’IH ? L’IA ne pense pas…nous assure un commentateur..eh bien non justement et la réside le problème et les avancées des 3 dernières années posent effectivement des questions…

    Quand quelqu’un comme Elon Musk demande que l’on observe une PAUSE, le personnage n’est pas un opposant a la technologie, on peut considérer que les risques sont réels.

    On peut souligner l’incroyable accélération de la productivité de ceux et celles dans le domaine de la production de contenu, de l’ensemble de la filière logicielle et dans tous les domaines qui demandent l’appel aux techniques combinatoires. La recherche sur les ensembles très spécialisés comme les bases de données médicales, de la chimie mettent les moteurs spécialisés de ce domaine à la poubelle…Rapelons que ces déductions sont maintenant indispensables dans tous les domaines puisque le volume de la publication scientifique ou technologique annuelle double en 5 années

    Il n’y aura pas ou peu d’utilisation de ceci dans les systèmes destinés au public, les systèmes qui affinent vos recherches pour restons français…la Sécurité Sociale, etc..ne sont pas concernés
    [modéré]
    Les universités se posent la question des devoirs et des travaux d’élèves dans de nombreux domaines dont la quasi totalité peuvent maintenant être résolu par ce système.

    Il est ironique que Chomsky soit celui qui lointainement a permis l’émergence de ces technologies…Avant d’être celui que connaissent les commentateurs de ce site il a été le plus grand linguiste du 20 ième siècle et ses travaux sur la structure des langues et les grammaires formelles ont autorisé d’abord la formalisation mathématique et ensuite l’apparition des langages de programmation modernes.
    [modéré]

      +3

    Alerter
  • Chris AtHome // 18.04.2023 à 18h20

    Ce sont les questions qui font avancer. Les réponses quelles qu’elles soient et d’où qu’elles viennent, sont où seront remises en question un jour ou l’autre.
    Tout notre problème me semble venir du fait que nous ne savons plus poser de questions pertinentes. Alors comme disait ma grand mère « Sotte question, Sotte réponse »
    Quand « l’IA » qui ne me semble être qu’une très grosse bibliothèque, avec un système d’indexation et de compilation performant, saura poser des questions pertinentes ça pourrait être amusant et même intéressant.
    Dans l’état actuel de la « science » C’est celui qui pose les questions qui est « intelligent » Celui qui donne les réponses est juste « cultivé »

      +2

    Alerter
    • El Hierro // 21.04.2023 à 20h03

      Vous pouvez inverser les rôles avec ChatGPT, et lui demander d’être le questionneur. A vous de bien préciser le cadre.

        +2

      Alerter
  • tchoo // 18.04.2023 à 18h29

    Comment peut-on appeler ce machin une intelligence?
    Il s’agit d’un gigantesque et très performant moteur de recherche qui est capable de vous restituer son travail avec des phrases intelligibles à défaut d’être intelligente et comme dit dans l’article vous tous les points de vue (tout et son contraire)y compris les plus fallacieux.
    Donc un outil qui aidera ce que l’humain qui s’en servira à faire en bien ou mal
    ./

      +3

    Alerter
  • Cévéyanh // 18.04.2023 à 19h36

    Nous pouvons créer aussi notre propre robot de discussion (proposition de mot français : DiscutBot) sur un thème particulier. Eliza en est un.

    Article de Libération sur « Un jeune chercheur en proie à une éco-anxiété presque paralysante avait trouvé refuge auprès d’Eliza, un chatbot utilisant la technologie de ChatGPT. Mais au terme de six semaines d’échanges intensifs, il s’est donné la mort. »
    https://www.liberation.fr/economie/medias/comme-une-drogue-dans-laquelle-il-se-refugiait-ce-que-lon-sait-du-suicide-dun-belge-ayant-discute-avec-une-intelligence-artificielle-20230403_WFNGYSRR35FSFGDBZUX3AQ7PIM/

    « Qui est Eliza, le chatbot qui a poussé un jeune Belge au suicide, et quels sont ses dangers ? » https://trends.levif.be/a-la-une/tech-medias/qui-est-eliza-le-chatbot-qui-a-pousse-un-jeune-belge-au-suicide-et-quels-sont-ses-dangers/

      +2

    Alerter
    • calal // 18.04.2023 à 22h11

      ben oui,la psychologie soigne un peu parce que le psychologue nous parle et c’est justement de ca que le cerveau humain a besoin d’entendre pour ne pas se croire trop eloigne des congeneres amicaux et a risque d’etre surpris par un predateur. Il aurait fallu que Eliza parle en text to speech et avec plusieurs voix differentes pour pouvoir esperer inhiber une angoisse provoquee par le systeme limbique.

        +0

      Alerter
    • Cévéyanh // 19.04.2023 à 19h29

      Selon Le Petit Robert, la recommandation officielle est d’utilisé le mot « dialogueur » au lieu de l’anglicisme « chatbot » : https://dictionnaire.lerobert.com/definition/chatbot

      A Calal,
      Un être humain peut ne pas prononcer certains mots, modifier ses paroles s’il pense que cela peut blesser ou qu’elles ne sont pas bien comprise, cherche les mots justes etc. Là, Eliza n’a pas l’air d’avoir cette capacité.

      « Ainsi, au cours d’une discussion plutôt rationnelle sur la croissance démographique et la façon dont les nouvelles technologies peuvent contribuer à résoudre des crises, le Belge s’inquiète de l’avenir de sa famille. «Ils sont morts», lui répond Eliza. Puis, leur échange vire carrément au mystique : «Il évoque l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle», se souvient son épouse dans les colonnes du quotidien, qui s’est procuré les derniers échanges entre le chercheur et le robot. » (extrait du 1er article)

      « Un chatbot bien entrainé peut simuler les choses et rendre la réponse de plus en plus humaine, mais il ne sera jamais humain et n’aura jamais d’émotions, c’est une parfaite illusion de le croire. » (extrait du 2ème article)

        +0

      Alerter
  • E-Gwen // 18.04.2023 à 23h35

    Mauvaise nouvelle : M. Chomsky est tout aussi suranné que la technologie dont il nous parle.
    ChatGPT est mort, vive Free Dolly :

    https://www.databricks.com/blog/2023/04/12/dolly-first-open-commercially-viable-instruction-tuned-llm

    Cybernétiquement vôtre.

      +1

    Alerter
  • B9-72 // 19.04.2023 à 16h38

    Translate into french « John is too stubborn to talk to » : « John est trop têtu pour parler avec lui. »
    ChatGPT 3.5 s’en sort très bien.
    Je pense en outre qu’une très importante proportion de l’humanité ne saurait répondre au pourquoi un pomme tombe. Il sauront qu’elle va tomber de par l’expérience, quand on lâche un objet, il tombe. C’est de l’expérience, et donc plus ou moins de la statistique… Cela signifie-t-il pour autant que ces gens ne sont pas intelligents ?

      +1

    Alerter
    • Pierrot // 23.04.2023 à 11h47

      La différence, c’est que l’expérience humaine du monde réel n’est pas un ensemble de statistiques sur des suites de symboles issus de l’ingurgitation d’une montagne de textes hors de toute compréhension ou signification.

      Un humain sait par expérience ce qu’est une « pomme » et ce que signifient « lâcher » et « tomber », et il a le souvenir de ce qui se passe quand on lâche une pomme dans un contexte qu’il conçoit comme similaire à celui du propos (e.g. hors apesanteur, sans que la pomme soit posée sur le sol ou sur une table). Il peut également prédire qu’une poire qu’on lâche tombera même s’il n’a jamais vu personne lâcher de poire auparavant, parce qu’il sait par expérience qu’une poire présente des propriétés similaires à celles d’une pomme. Et il se retiendra probablement de dire n’importe quoi si on lui demande ce qui se passe quand on lâche un kzught, parce qu’il ne comprend pas de quoi on parle (un kzught pourrait s’envoler, ou « lâcher un kzught » pourrait être une expression qu’il ne connaît pas, par exemple).

      A contrario, ChatGPT dit qu’« une pomme tombe quand on la lâche » parce que, d’un point de vue purement linguistique et relativement aux suites de mots utilisées pour son entraînement, la suite des symboles associés à la phrase de cet énoncé est plausible et est la plus probable. Mais parce qu’il n’a aucune conscience de ce qu’il dit, il pourrait tout aussi bien convenir que « le vent tombe quand on le lâche ».

      Quant à pouvoir expliquer la raison pour laquelle une pomme tombe, cela ne relève pas de l’intelligence mais de la connaissance scientifique.

        +1

      Alerter
  • PoisonInTheMachine // 20.04.2023 à 09h21

    Lesdites méga datas intègrent par exemple wikipedia ou l’équivalent , soient autant de données « brutes » mais produites, sélectionnées puis fournies au malin machin par des humains au sens critique assez développé pour affirmer mensonges et conneries. Erreurs et fautes. Le matériau n’est ni « neutre » ni universel ni même vrai trop souvent. Pourtant l’absence de critique à l’encontre de ces bases comme wikipedia son ’extraordinaire succès confirme notre dépendance irréversible à ce prêt à penser fastoche. Ce super wiki GPT devrait rapidement superviser notre « pensée » utilitariste et réduire encore le recours à l’ esprit critique notamment dans l’enseignement . Une affaire qui marche, déjà. Personne ne peut s’opposer à une telle masse d’argent

      +2

    Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications