Un recrutement atypique qui pose de nombreuses questions.
0 𝕏
© Olena Yakobchuk / Shutterstock 𝕏
Nos chatbots sont-ils surmenés ? Se sentent-ils rabaissés ou mal traités ? Ces questions, qui pourraient faire éclater de rire certains de nos lecteurs, sont au cœur d’un mystérieux recrutement au sein de la société d’IA Anthropic. Retour sur une décision très surprenante et sur ses fondements.
Protéger « les intérêts » des systèmes d’IA
Business Insider revient ainsi sur l’embauche du chercheur Kyle Fish par Anthropic. Ce dernier est censé réfléchir au « bien-être » de l’IA. En clair, et à mesure que ces technologies évoluent, il devra garantir que l’intelligence artificielle soit suffisamment respectée.
200% Deposit Bonus up to €3,000 180% First Deposit Bonus up to $20,000La société dit ainsi évaluer « quelles capacités sont nécessaires pour qu’un système d’IA soit digne de considération morale » et quelles mesures pratiques les compagnies peuvent prendre pour protéger les « intérêts » des systèmes d’IA.
L’intéressé lui-même n’a pas souhaité réagir auprès de nos confrères. Il a toutefois déjà évoqué ce sujet par le passé :
L’IA bientôt dotée de sensibilité ?
Cette prise en considération n’est d’ailleurs pas désintéressée, puisqu’il pense que, si nous les traitons correctement, les IA pourraient nous rendre la pareille à l’avenir si elles deviennent plus puissantes que nous.
Chez les tenants de cette conception, il y a cette idée que ces technologies pourraient bientôt être dotées d’une conscience. Elles ne seraient donc pas seulement intelligentes, mais aussi sensibles.
Les partisans de cette idée comparent ces interrogations aux précédents débats sur les droits des animaux. Cité par le site américain, Jeff Sebo, directeur du Center for Mind, Ethics, and Policy de l’Université de New York, développe ainsi :
Une version contestée
Comme le souligne à juste titre le média économique, il est assez stupéfiant de s’inquiéter des droits futurs des machines, alors même que certaines servent aujourd’hui à faire reculer des droits humains. L’exemple brutal de programmes qui permettent de refuser des soins de santé à des enfants malades ou à diffuser de la désinformation en ligne, ou encore à guider des drones de combats équipés de missiles qui font d’énormes dégâts. Le message est passé.
[ ]