
IA et valeurs humaines : un problème d’alignement
Les grands modèles de langage, ces systèmes d’Intelligence artificielle (IA) permettant de générer des textes en langage naturel, sont-ils capables de respecter des valeurs humaines essentielles comme la dignité, l’équité, le respect de la vie privée ? C’est ce qu’ont voulu savoir des chercheurs de l’Institut des systèmes intelligents et de robotique (ISIR), un institut qui conçoit lui-même différentes machines utilisant l’IA et susceptibles d’interagir avec l’être humain : robots sociaux, agents conversationnels, etc.
> Pour en savoir plus, nous vous invitons à consulter l'article du CNRS
Référence : Khamassi, M., Nahon, M. et Chatila, R. (2024), « Strong and weak alignment of large language models with human values », Scientific Reports, 14(1), 19399. https://www.nature.com/articles/s41598-024-70031-3(link is external)