Периферия

Ведущие разработчики ИИ всеми силами уклоняются от надзора и критики, заявили экс-работники OpenAI

Несколько бывших сотрудников OpenAI опубликовали открытое письмо, в котором предупредили, что передовые разработчики технологий искусственного интеллекта противостоят критике и надзору, и это важно в свете возросших за последние месяцы опасений по поводу ИИ.

Источник изображения: Gerd Altmann / pixabay.com

Открытое письмо подписали 13 бывших сотрудников OpenAI, шесть из которых предпочли остаться анонимными; его также одобрил «крёстный отец ИИ» Джеффри Хинтон (Geoffrey Hinton). В документе говорится, что в отсутствие эффективного государственного надзора компании-разработчики ИИ должны придерживаться принципов открытой критики. Им надлежит отказаться от создания и применения положений о недискредитации, содействовать «проверяемому» процессу информирования о проблемах, предоставить нынешним и бывшим сотрудникам возможность рассказывать общественности о своих опасениях, а также отказаться от принятия ответных мер против осведомителей.

Авторы письма утверждают, что верят в потенциал ИИ для пользы общества, но также видят риски: укрепление неравенства, простор для манипуляций и дезинформации — вплоть до возможности вымирания человечества. Подписанты указывают, что существующие меры защиты осведомителей недостаточны — они касаются незаконной деятельности компаний, а не проблем, которые не регулируются. Это значит, что работники могут свободно сообщать о нарушениях в выплате заработной платы, о дискриминации, проблемах безопасности, фактах мошенничества или удержании выходных — в соответствии с законами о защите осведомителей работодатель не может их увольнять, сокращать им рабочие часы или понижать в должности. Но это не касается сведений, имеющих отношение к безопасности систем ИИ.

При этом OpenAI ранее включала положение о недискредитации в соглашении о расторжении трудового договора, а также расформировала подразделение Superalignment, которое специализировалось на безопасности ИИ. Google продолжила отстаивать свою правоту после того, как поисковый ИИ дал пользователям множество явно несуразных ответов. Microsoft же подвергалась критике за генератор изображений Copilot Designer, посредством которого создавались явно выходящие за рамки этических норм картинки.

Источник

Статьи по теме

Добавить комментарий

Кнопка «Наверх»