• L'éthique de l'IA : porno Deepfake & ChatGPT

    Article de Joe Martino traduit par Ey@el

    Available in English

    Pour moi, l'IA est un sujet à la fois fascinant et effrayant. D'un côté, elle a et continue de faciliter nos vies à bien des égards — une affirmation que j'ai un peu de nervosité à écrire tant, ces derniers temps, on est arrivé à penser surtout au « danger » que represente l'IA. Ce qui m'amène au point suivant.

    La manière dont l'IA est utilisée et le genre d'avenir qu'elle pourrait engendrer si l'on n'y prend garde — ou peut-être si nous n'augmentons pas la qualité de notre conscience et de notre être — soulève de vives inquiétudes.

    Je voudrais exposer certaines questions d'ordre éthique concernant l'IA déjà implémentée dans le monde réel, de la plus insignifiante à la plus préoccupante.

    Commençons par un bref aperçu des différents types d'IA existant.

    Comme établi par le site BuiltIn :

    1. Machines réactives : Une technologie en mesure de réagir à des stimuli externes en temps réel, mais incapable de construire une base de mémoire ni de stocker de l'information pour un usage ultérieur (filtrage des courriels, recommandations de films ou de musiques basées sur ce que vous aimez).
    2. Mémoire limitée : Des machines pouvant stocker des connaissances et s'en servir pour apprendre et s’entraîner à des tâches futures (chatbots, robots aspirateurs, véhicules sans conducteur).
    3. Théorie de l'esprit : Concept selon lequel l'IA peut percevoir et réagir aux émotions humaines tout en effectuant les tâches des machines à mémoire limitée.
    4. Conscience de soi : Stade final de l'IA où les machines peuvent non seulement reconnaître les émotions d'autrui mais également développer une identité propre et une intelligence au niveau humain.

    Comme on peut le constater, l'IA nous a été très utile et existe depuis longtemps. On peut voir également que le quatrième type a l'air très effrayant. Si quelqu'un parvient enfin à créer cela, on n'a vraiment aucune idée de ce qui pourrait arriver.

    Un léger inconvénient

    Mais même l'IA dont nous disposons actuellement soulève de nombreux problèmes et questions d'ordre éthique que nous devons examiner. Commençons par quelque chose de simple.

    Voici, ci-dessous, le récit d'un collaborateur de Collective Evolution et de The Pulse, dans lequel il partage certaines idées concernant le problème de l'intelligence artificielle.

    L'intérêt que je porte aux éventuelles conséquences de l'évaluation de l'information par des machines dans d'autres machines a vu le jour, il y a quelques semaines, lors d'un déplacement hors de l'état. En prenant de l'essence, la pompe est tombée en panne et je suis donc passé à une autre pour finir mon plein.

    Ensuite ma carte de crédit a été refusée et j'ai dû appeler la société. En outre, j'ai reçu un courriel d'alerte à la « fraude éventuelle ». Comme le dysfonctionnement de la pompe était bizarre, j'ai pensé que j'avais peut-être été piraté mais lorsque j'ai appelé la société, il s'est avéré qu'il n'y avait aucune fraude — que les « ordinateurs » avait simplement décidé que mon anomalie était suffisamment irrégulière pour justifier la gêne occasionnée en bloquant mon crédit.

    Lorsque je m'en suis plaint, la personne du département des fraudes m'a simplement répondu : « C'est notre politique. Si le logiciel déclenche une alerte, nous devons agir. » Cela m'a rappelé la célèbre réplique de Hank Paulson, ancien secrétaire d'état au Trésor, lorsqu'on lui avait demandé pourquoi les banques avaient besoin d'un renflouement de 800 milliards de dollars en 2007.

    « C'est ce que les ordinateurs nous ont dit » avait-il déclaré.

    Le problème est qu'un grande part de cette « intelligence artificielle » est sans fondement, non prouvée et tout bonnement erronée. Tout comme il n'y avait eu aucune fraude sur ma carte de crédit, juste un couac à la pompe à essence — mais comment tenir pour responsable un programme informatique ?

    Il m'est arrivé la même chose à maintes reprises mais de manière différente. « Les ordinateurs ont détecté une erreur ». Alors avec ces scénarios, on voit les grandes différences qui existent entre la réaction d'une machine et celle d'un humain. Combien de fois cela arrive-t-il ? Quelles solutions pouvons-nous apporter à ces scénarios ?

    Élaboration du problème : les milieux universitaires et la recherche de sens

    ChatGPT est un outil intelligent qui fait actuellement couler beaucoup d'encre. Il s'agit d'un ChatBot ou agent conversationnel répondant aux questions posées par les utilisateurs. Les réponses imitent une conversation humaine naturelle et sont issues d'informations collectées sur internet. On peut s'en servir pour écrire des articles, des dissertations, des publications sur les médias sociaux, des livres, et bien plus encore.

    Certaines des questions d'ordre éthique soulevées concernent les essais et projets universitaires. Si des étudiants peuvent maintenant entrer quelques questions à un ChatBot et recevoir des rédactions toutes faites, devraient-ils recevoir le même mérite ? Si aujourd'hui l'accès à l'information est aussi simple, ne risquons-nous pas de perdre la pensée critique et la créativité que nous apporte le fait d'effectuer ce travail nous-mêmes ?

    ChatGPT peut également servir dans la sphère journalistique. Et si l'ère du Covid nous a appris quelque chose, c'est que c'est là une pensée effrayante.

    Un journaliste ou reporter de n'importe quel organe de presse peut simplement injecter quelques questions au sujet d'un événement en cours dans ChatGPT qui lui pondra un article qu'il sera difficile de savoir s'il a été écrit par un humain ou une IA.

    Mais au-delà demeure la question de ce qui est vrai. Lorsque l'on peut censurer l'information en ligne et que les « faits » sont décidés par les « fact-checkers », comment l' IA sait-elle contourner ce problème ? L'IA sera-t-elle même en mesure de puiser dans des faits qui ont été effacés d'internet comme dans le cas de l'emploi de Jordan Walker chez Pfizer ? À l'évidence, non.

    Les organes de presse étant privés de revenus, surtout les médias indépendants comme nous, les sociétés seront incitées à remplacer les rédacteurs et reporters par des bots d'IA. Il y a aura encore moins d'esprits impliqués dans la bonne recherche de sens et les récits pourront être élaborés par des puissants, ensemençant le public avec les idées qu'ils veulent lui faire connaître tout en effaçant les autres.

    C'est une pensée préoccupante d'envisager que notre paysage informationnel puisse même empirer. Mais au cas où vous vous poseriez la question, non, ce n'est pas quelque chose que nous ferions.

    Mais cela nous ramène au point de départ du problème expliqué plus haut par Tom au sujet de sa carte de crédit. Hormis le fait que des choses comme les systèmes de crédit social soient dès le départ problématiques, si les machines se mettent à aider à déterminer ce qui est important et de la validité du crédit social des personnes sur la base d'algorithmes et de paramètres, comment saurons-nous qu'ils ne commettent pas d'erreurs fondamentales dépourvues de nuance humaine essentielle ?

    Qui serait responsable de ces erreurs ?

    Problème encore plus grand : qu'est-ce qui est réel ?

    Prenez par exemple, une évolution récente appelée Deepfake ou hyper-trucage où par un certain procédé l'IA reconstitue le visage de qui vous voulez, y compris des célébrités ou des présidents, sur celui d'une autre personne dans une vidéo. Cela donne l'impression que quelqu'un dit ou fait quelque chose alors que ce n'est pas le cas.

    Récemment, une créatrice de contenu sur Twitch, agée de 28 ans et officiant sous le pseudonyme de QTCinderella, a malheureusement été victime d'une vidéo porno Deepfake.

    Chaque mois, des centaines de milliers de personnes la regarde jouer à des jeux vidéo, faire de la pâtisserie et interagir avec des fans en ligne. On la paie également pour ça. Mais le 30 janvier dernier, ce n'était un stream pour le plaisir. Au lieu de cela, elle s'est connectée pour aborder le problème et montrer la souffrance occasionnée de découvrir que quelqu'un avait créé une fausse vidéo porno en utilisant son image et sa ressemblance.

    Voici à quoi ça ressemble de se sentir violée. Voici à quoi ça ressemble de se sentir abusée, de se voir nue contre son gré et diffusée partout sur internet. Voici à quoi ça ressemble.

    Non seulement il y a eu l'action néfaste du créateur de la fausse vidéo porno mais un utilisateur de Twitter a réagi à son stream en prenant une capture de sa réaction et en la postant avec ce commentaire :

    Imaginez que des femmes riches avec un titre mettent fin à la progression de l'IA. Ce serait la fin de l'IA, mes potos.

    C'est là où je ne peux m'empêcher d'avoir le sentiment qu'en tant que société, nous sommes trop profondément déconnectés et dans un tel marasme émotionnel pour assumer la responsabilité de technologies comme celle-là.

    C'est l'éternelle question : est-ce la technologie elle-même ou les humains qui s'en servent ? En ce qui me concerne, dans la plupart des cas concernant l'IA, c'est notre qualité en tant qu'humains en ce moment, tout comme la manière dont le monde est conçu, qui m'inquiète plus que la plupart de ces technologies elles-mêmes.

    Nous semblons si profondément déconnectés de nos émotions et de ce que les autres ressentent qu'il est fréquent que des gens veuillent démolir ceux qui passent par une expérience difficile juste pour fournir un « instantané » qui pourrait devenir viral.

    Nous ne cherchons pas à comprendre ni à écouter vraiment la souffrance des autres parce que, dans de nombreux cas, nous préférons les juger sur leur apparence, leur couleur de peau, leur popularité ou leurs privilèges afin de ne pas avoir à établir une véritable connexion avec eux. C'est comme si nous avions élaborés des moyens de nous défendre de toute connexion entre nous.

    Pourquoi tant de nous avons du mal à ressentir de l'empathie avec des personnes que nous n'avons même jamais rencontrées et que nous ne connaissons pas ? Voyons-nous cela comme un progrès positif même si les cas de recours à l'IA comme celui-ci n'existaient pas ?

    Quoi qu'il en soit, je pense que nous avons grandement besoin de vraiment nous focaliser sur la qualité de nos émotions, sur notre connexion à autrui et sur notre êtreté, ce qi sera le fondement de notre manière d'aborder les années à venir afin d'agir pour un avenir plus épanouissant.

    Traduit de l'anglais par Ey@el
    © lapensinemutine.eklablog.com

    Articles connexes

    Liens externes

    La reproduction du contenu de ce billet est strictement interdite.
    © lapensinemutine.eklablog.com. Tous droits réservés.
    « Le changement de pôle du TempsComment ajouter des supports physiques à une bibliothèque ou vidéothèque numérique »

    Tags Tags : , ,
  • Commentaires

    1
    Jeudi 30 Mars 2023 à 19:56

    Bonjour Eyael
    Cela fait un petit moment que je n'étais pas venu sur ton blog. Merci pour ton blog toujours très intéressant.
    Super ton nouveau logo.

    Amicalement

    LoupSol

      • Vendredi 31 Mars 2023 à 01:18

        Ravie de te revoir et contente que ça te plaise. Comme quoi l'IA fait des trucs sympas aussi.

    Suivre le flux RSS des commentaires


    Ajouter un commentaire

    Nom / Pseudo :

    E-mail (facultatif) :

    Site Web (facultatif) :

    Commentaire :