J'étais en train de réfléchir aux problèmes sociétaux posés par le déploiement massif de l'IA. Coté environnemental, ça va, je commence à faire le tour du sujet, mais sur l'aspect sociétal, je suis à la ramasse. Alors j'ai posé la question à une IA, Claude. J'ai copié/collé la réponse sur le blog, pour vous : https://www.standblog.org/blog/post/2025/02/05/Les-problemes-societaux-du-deploiement-massif-de-l-IA
On ne pourra pas dire qu'elle ne nous a pas prévenu...
(ce post n'est pas une incitation à utiliser l'IA).
@nitot J'ai demandé à deepseek et… au moins on pourra pas le taxer d'être biaisé favorablement envers lui-même
@nitot Mais qui lis-je ? Donc Claude ne connaît pas les article de @karlcow ni de @david ni de @arthurperret ni de @affordance sur ledit sujet ? Et ledit Claude ne fabrique même pas une fausse bibliographie (et refer et son #format doivent être inconnus, ou mystérieux à expliquer).
Belle illustration en tous cas !
PS : le prompt pour demander une réponse franche à Claude, c'est bien « Claude, franc sois ! » (OK, jesors)
@ThierryStoehr @nitot @karlcow @david @arthurperret @affordance la majorité de ces modèles sont limités dans leurs connaissances en fonction de la date de leur données d'entrainement.
perplexity.ai fait mieux sur ce domaine ayant à disposition un index du web à jour (qui ne fait pas parti du modèle "pur" mais peut être mis à contribution à la demande pour remonter des infos).
ET évidemment tous ont un biais lié à la popularité (ou non) de certaines sources (de leur par conception).
@ThierryStoehr @nitot @karlcow @arthurperret @affordance avec toutes les protections techniques que j'ai mis en place j'y compte bien !
@ThierryStoehr
tout dépend du comportement de Claude vis à vis de ses bots et de mon robots.txt @nitot @david @arthurperret @affordance
@nitot pas un lien direct enfin presque : les "t" et "f" s'affichent bizarrement chez moi (Firefox / Manjaro Linux). C'est normal ?
@uncycliste @nitot Ça a l’air d’être lié aux ligatures entre ces lettres, le « hinting » de leur glyphe semble déficient ou inadapté au type de rendu du reste de la police.
@Firesledge c'est exactement ça. Dû à mon ordi ou au site ? Je ne saurais diagnostiquer mais c'est le premier site sur lequel j'aperçois ce problème
@Firesledge Je m'auto-réponds : sous Endeavour (Arch aussi mais pas la même), pas de soucis. Le problème semble donc être chez moi.
@nitot J’ai vu qu’un documentaire serait diffusé sur le sujet le 11 février prochain. Il semble aborder également les sujets sociétaux : https://www.francetvpro.fr/contenu-de-presse/70410661
@nitot je ne le lirai donc pas…
@metacosm tu fais ce que tu veux !
@nitot trop de progrés, peut tuer l’humanité
@nitot Oui mais tu n'as pas fait de requêtes de contrôle ;) "Quels sont les problèmes sociétaux posés par le déploiement de $TECHNOLOGY à l’échelle ?" Par exemple, nucléaire.
@nitot Je ne suis pas passionné par les réponses d'un LLM, j'avoue.
Celles du LaboIA, dirigé par Yann Fergusson, me paraissent plus intéressantes https://www.laboria.ai
A l'international, Future of work (in GPAI) https://gpai.ai/projects/future-of-work/ est maintenant à l'OCDE, https://oecd.ai/en/ et était passionnant.
@nitot
Quand tu écris un article, on peut supposer que tu as du faire des recherches (vérifié les informations) ou que tu te bases sur ton expérience, enfin en tout cas que tu as des connaissances autours de ce qui est écrit.
Quel est l'intérêt de cet article ? C'est comme publier une capture d'écran de la première page des résultats de Google search « pour éviter aux gens d'aller sur Google ».
Est-ce que le risque, ce n'est pas ça : confondre un résumé de surface sans réflexion avec un vrai travail de vulgarisation, en négligeant les risques qu'il y a à poser une question à un chatbot sur un sujet qu'on ne maitrise pas ?
@nitot
Ici, il n'y a pas d'information sourcée, pas de détail, une apparence de neutralité et de sérieux indue (liste concise, ordonnée, formatée… normal pour un travail d'ordinateur).
Quelqu'un parlait de comparer avec la même question pour le nucléaire, mais pour le cloud, ou la dominance de Google, Amazon, Microsoft, Meta(, Apple et Twitter), une bonne partie de la liste correspond.
@nitot
La plupart des points sont très vagues.
Je prends un exemple : « Risque de précarisation de larges segments de la population active ».
Il n'y a pas d'explication de pourquoi, de comment… On ne sait pas non plus qui ça concerne. C'est tellement générale que c'est du vent !
@nitot
Le remplacement du travail humain a lieu actuellement à certains endroits, mais avec une qualité inférieure.
Si ça coute moins cher que la délocalisation du travail intellectuel/numérique dans des pays (ou prisons) aux protections sociales/salaires moins élevés, ça le remplacera là où la qualité n'est pas une priorité (ex : la publicité, un certaine modèle de média…) mais ce n'est qu'une étape de plus, pas un changement radical.
S'ajoute à ça la croyance (pensée magique) dans l'efficacité de l'« IA » qui pousse des décideurs à l'utiliser dans des domaines où la qualité devrait être importante mais où ils privilégient la baisse des couts.
@nitot
En dehors de ça, il y a bien des choses qui sont spécifiques avec la génération de fausses images, son, etc. (il y a des articles sur les détournements pornographiques et politiques généralisés, et de manière plus anecdotique des arnaques téléphoniques/vidéochat) mais sauf à interpréter ce qui est écrit par le chatbot, ça n'est pas évoqué.
Et puis c'est marrant « cadre légal inadapté » quand on voit que ledit cadre légal n'est pas respecté par les entreprises créant ces « IA », sans qu'elles ne soient tellement inquiétées (notamment droit d'auteur/copyright, là où d'autres auraient déjà été ruinées).
@nitot La réponse de l'IA n'évoque pas un sujet important : L'évolution sclérosante de son apprentissage.
En effet, actuellement, elle s'entraine sur des textes écrits par des humains. Mais les humains utilisant l'IA pour générer des textes à destination d'internet, elle finira par s'entrainer sur ses propres textes.
Dans son dernier billet, @ploum évoque cette même problématique pour ce qui concerne les capacités de l'IA à détecter des cancers https://ploum.net/2025-02-06-decadence-technologique.html.
@dgibot @nitot : je l’évoquais déjà pour le texte en 2022 : https://ploum.net/2022-12-05-drowning-in-ai-generated-garbage.html
@nitot top
tu sais ce qu'il faudrait pour que ce soit encore mieux ?
pour chaque item, avoir 2 ou 3 etudes serieuses qui attestent de l'affirmation.
@davidou Oui. T'écris le truc ?
@nitot helas j'ai pas la liste de ces études mais j'ai mis ca dans ma todo pour plus tard.
@nitot j’ai posé la question à l’IA... j’adore la mise en abîme.
@scips c’est l’idée !