• Camus (il, lui)@jlai.luOP
    link
    fedilink
    arrow-up
    6
    ·
    1 year ago

    Les contenus générés par l’IA sont souvent subtilement erronés

    Pour vérifier le contenu du rapport, je l’ai soumis à une personne que je pensais être une source fiable sur le sujet : un modérateur du subreddit r/hiking nommé Chris.Chris m’a dit que le rapport était essentiellement du remplissage.“Il y a beaucoup de mots, mais pas de valeur réelle dans ce qui est écrit”, a-t-il dit.Il ne mentionne pas des facteurs importants tels que la différence entre les chaussures pour hommes et pour femmes ou les types de tissus utilisés.Il se trompe sur les faits et classe les marques ayant une plus grande présence sur le web comme plus méritantes.Dans l’ensemble, selon Chris, l’information n’est pas fondée sur l’expertise, mais uniquement sur des suppositions.“Si on me posait la même question, je donnerais une réponse complètement différente”, affirme-t-il. "En suivant les conseils de l’IA, vous risquez fort de vous blesser les pieds sur le sentier.

    Il s’agit de la même plainte identifiée par les mods de Stack Overflow : la désinformation générée par l’IA est insidieuse parce qu’elle est souvent invisible. Elle est fluide mais ne repose pas sur l’expérience du monde réel, et il faut donc du temps et de l’expertise pour la démêler. Si les contenus générés par les machines supplantent les auteurs humains, il sera difficile, voire impossible, de dresser une carte complète des dégâts. Et oui, les gens sont aussi d’abondantes sources de désinformation, mais si les systèmes d’IA étouffent aussi les plateformes où l’expertise humaine prospère actuellement, il y aura moins d’occasions de remédier à nos erreurs collectives.

    Les effets de l’IA sur le web ne sont pas simples à résumer. Même dans les quelques exemples cités ci-dessus, de nombreux mécanismes différents sont en jeu. Dans certains cas, il semble que la menace perçue de l’IA soit utilisée pour justifier des changements souhaités pour d’autres raisons (comme avec Reddit), tandis que dans d’autres, l’IA est une arme dans une lutte entre les travailleurs qui créent la valeur d’un site et les personnes qui le gèrent (Stack Overflow).Il existe également d’autres domaines dans lesquels la capacité de l’IA à remplir des cases a des effets différents, qu’il s’agisse de réseaux sociaux expérimentant l’engagement de l’IA ou de sites d’achat où les produits générés par l’IA sont en concurrence avec d’autres marchandises.

    • Camus (il, lui)@jlai.luOP
      link
      fedilink
      arrow-up
      6
      ·
      1 year ago

      Dans chaque cas, la capacité de l’IA à s’étendre - le simple fait de son abondance brute - modifie une plateforme. La plupart des sites les plus performants du web sont ceux qui exploitent l’échelle à leur avantage, soit en multipliant les connexions sociales ou le choix de produits, soit en triant l’énorme conglomération d’informations qui constitue l’internet lui-même.Mais cette échelle repose sur des masses d’humains pour créer la valeur sous-jacente, et les humains ne peuvent pas battre l’IA lorsqu’il s’agit de production de masse.(Même s’il y a beaucoup de travail humain en coulisses pour créer l’IA). Il existe un essai célèbre dans le domaine de l’apprentissage automatique, connu sous le nom de “The Bitter Lesson” (la leçon amère), qui indique que des décennies de recherche prouvent que la meilleure façon d’améliorer les systèmes d’IA n’est pas d’essayer de créer de l’intelligence, mais simplement d’injecter plus de puissance informatique et de données pour résoudre le problème.La leçon est amère parce qu’elle montre que l’échelle de la machine l’emporte sur la curation humaine.Et il pourrait en être de même pour le web.

      Cela doit-il être une mauvaise chose ? Si le web tel que nous le connaissons change face à l’abondance artificielle ?Certains diront que c’est tout simplement dans l’ordre des choses, notant que le web lui-même a tué ce qui l’a précédé, et souvent pour le meilleur.Les encyclopédies imprimées ont pratiquement disparu, par exemple, mais je préfère l’étendue et l’accessibilité de Wikipédia au poids et à l’assurance de l’Encyclopédie Britannica.Et malgré tous les problèmes liés à l’écriture générée par l’IA, il existe de nombreux moyens de l’améliorer, qu’il s’agisse de fonctions de citation améliorées ou d’une surveillance humaine accrue.De plus, même si le web est inondé de déchets d’IA, cela pourrait s’avérer bénéfique, en stimulant le développement de plateformes mieux financées.Si Google vous donne systématiquement des résultats erronés, par exemple, vous serez peut-être plus enclin à payer pour des sources auxquelles vous faites confiance et à les visiter directement.

      En réalité, les changements que l’IA provoque actuellement ne sont que les derniers d’une longue lutte dans l’histoire du web.Il s’agit essentiellement d’une bataille autour de l’information : qui la produit, comment y accéder et qui est payé.Mais ce n’est pas parce que le combat est familier qu’il n’a pas d’importance, et cela ne garantit pas non plus que le système qui suivra sera meilleur que celui que nous avons aujourd’hui.Le nouveau web s’efforce de naître, et les décisions que nous prenons aujourd’hui détermineront la manière dont il se développera.