Spread the love

Un recrutement atypique qui pose de nombreuses questions.

0 𝕏

Cette société recrute un coach bien-être pour éviter que l’IA ne fasse un burnout

© Olena Yakobchuk / Shutterstock 𝕏

Nos chatbots sont-ils surmenés ? Se sentent-ils rabaissés ou mal traités ? Ces questions, qui pourraient faire éclater de rire certains de nos lecteurs, sont au cœur d’un mystérieux recrutement au sein de la société d’IA Anthropic. Retour sur une décision très surprenante et sur ses fondements.

Protéger « les intérêts » des systèmes d’IA

Business Insider revient ainsi sur l’embauche du chercheur Kyle Fish par Anthropic. Ce dernier est censé réfléchir au « bien-être » de l’IA. En clair, et à mesure que ces technologies évoluent, il devra garantir que l’intelligence artificielle soit suffisamment respectée.

200% Deposit Bonus up to €3,000 180% First Deposit Bonus up to $20,000

La société dit ainsi évaluer « quelles capacités sont nécessaires pour qu’un système d’IA soit digne de considération morale » et quelles mesures pratiques les compagnies peuvent prendre pour protéger les « intérêts » des systèmes d’IA.

L’intéressé lui-même n’a pas souhaité réagir auprès de nos confrères. Il a toutefois déjà évoqué ce sujet par le passé :

L’IA bientôt dotée de sensibilité ?

Cette prise en considération n’est d’ailleurs pas désintéressée, puisqu’il pense que, si nous les traitons correctement, les IA pourraient nous rendre la pareille à l’avenir si elles deviennent plus puissantes que nous.

Chez les tenants de cette conception, il y a cette idée que ces technologies pourraient bientôt être dotées d’une conscience. Elles ne seraient donc pas seulement intelligentes, mais aussi sensibles.

Les partisans de cette idée comparent ces interrogations aux précédents débats sur les droits des animaux. Cité par le site américain, Jeff Sebo, directeur du Center for Mind, Ethics, and Policy de l’Université de New York, développe ainsi :

Une version contestée

Comme le souligne à juste titre le média économique, il est assez stupéfiant de s’inquiéter des droits futurs des machines, alors même que certaines servent aujourd’hui à faire reculer des droits humains. L’exemple brutal de programmes qui permettent de refuser des soins de santé à des enfants malades ou à diffuser de la désinformation en ligne, ou encore à guider des drones de combats équipés de missiles qui font d’énormes dégâts. Le message est passé.

[ ]

Teilor Stone

By Teilor Stone

Teilor Stone has been a reporter on the news desk since 2013. Before that she wrote about young adolescence and family dynamics for Styles and was the legal affairs correspondent for the Metro desk. Before joining Thesaxon , Teilor Stone worked as a staff writer at the Village Voice and a freelancer for Newsday, The Wall Street Journal, GQ and Mirabella. To get in touch, contact me through my teilor@nizhtimes.com 1-800-268-7116