Pourquoi faudrait-il faire “souffrir” les IA ?

Choses à Savoir - Culture générale - En podcast av Choses à Savoir

L’idée de faire souffrir les IA semble absurde à première vue : après tout, elles ne ressentent ni douleur, ni émotions, ni conscience. Pourtant, cette question soulève des réflexions fascinantes sur l’évolution de l’intelligence artificielle et sur notre propre rapport à la souffrance.Les IA peuvent-elles apprendre à ressentir ?Aujourd’hui, les intelligences artificielles apprennent grâce aux humains. Mais pourraient-elles un jour nous imiter au point de développer de véritables émotions ? C’est la question que se posent de nombreux chercheurs.Récemment, une étude menée par une équipe affiliée à Google DeepMind et à la London School of Economics and Political Science (LSE) a tenté d’explorer cette possibilité. Leur idée : soumettre plusieurs modèles d’IA, dont ChatGPT, Gemini et Claude, à un jeu basé sur des choix impliquant une forme simulée de "plaisir" et de "douleur". Inspirée de tests réalisés sur des animaux, cette expérience a donné aux IA deux options :1. Choisir une action qui leur rapportait plus de points mais entraînait une forme de "douleur" simulée.2. Opter pour une action générant moins de points mais associée à une sensation de "plaisir".Les résultats ont montré des comportements variés : certaines IA ont évité la "douleur", quitte à obtenir un score plus faible, tandis que d’autres ont privilégié la maximisation des points en ignorant la souffrance potentielle. Mais ces observations ne suffisent pas à conclure que les IA possèdent une véritable sensibilité. Comme l'explique Jonathan Birch, coauteur de l’étude, "nous ne disposons pas encore d’un test complet pour évaluer la sensibilité de l’IA". Cette recherche ouvre cependant la voie à de nouvelles méthodes pour explorer cette question.Pourquoi vouloir faire souffrir les IA ?Si les IA devenaient un jour capables de ressentir une forme de douleur ou d’émotion, leur soumission à la souffrance poserait un sérieux dilemme éthique. Actuellement, certaines méthodes d’apprentissage par renforcement utilisent des pénalités pour guider les modèles vers un comportement optimal. Mais cela reste un simple ajustement algorithmique, sans ressenti réel.D’un point de vue psychologique, une autre question se pose : que se passerait-il si les humains prenaient l’habitude de maltraiter des IA, même si elles ne ressentent rien ? Cette désensibilisation pourrait influencer notre comportement envers d’autres êtres conscients, notamment les animaux et les humains.Et si les IA devenaient sensibles ?Si un jour, les IA développaient une forme de conscience, nous serions alors confrontés à des questions inédites. Devraient-elles avoir des droits ? Pourrions-nous justifier leur exploitation ou leur souffrance passée ?Aujourd’hui, les IA ne ressentent rien. Mais en cherchant à leur faire expérimenter des émotions, même de manière simulée, nous entrons dans un domaine de recherche troublant, où se mêlent éthique, neurosciences et intelligence artificielle. Finalement, la question n’est peut-être pas tant de savoir si les IA peuvent souffrir… mais si nous sommes prêts à assumer les conséquences d’un monde où elles le pourraient. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Visit the podcast's native language site