В последнее время на фоне ажиотажа вокруг технологий ИИ программисты стали всё чаще обращаться за помощью в написании кода программ к чат-ботам на базе ИИ, таким как ChatGPT от OpenAI, что повлекло за собой снижение посещаемости ресурса Stack Overflow, вынужденного уволить в прошлом году почти 30 % персонала.
Как оказалось, полагаться на ИИ в написании программ пока рано. Согласно исследованию команды специалистов Университета Пердью, представленному в этом месяце на конференции Computer-Human Interaction («Взаимодействие компьютера и человека»), 52 % ответов по программированию, сгенерированных ChatGPT, оказались неверны.
В ходе исследования программисты Университета Пердью просмотрели более 517 вопросов в сервисе Stack Overflow и проанализировали ответы на них чат-бота ChatGPT. «Мы обнаружили, что 52 % ответов ChatGPT содержат дезинформацию, 77 % ответов более многословны, чем человеческие ответы, а 78 % ответов характеризуются различной степенью несоответствия ответам людей», — отметили исследователи.
Команда исследователей также провела лингвистический анализ 2000 случайно выбранных ответов ChatGPT и обнаружила, что они «более формальные и аналитические», но при этом отражают «менее негативные настроения» — чем обычно отличается ИИ.
Комментируя результаты исследования, сайт Futurism выразил обеспокоенность тем, что многие программисты предпочитают обращаться за помощью к ChatGPT. Исследователи Университета Пердью опросили 12 программистов и обнаружили, что 35 % респондентов предпочитают полагаться на ответы ChatGPT и не замечают ошибок в ответах, сгенерированных ИИ, в 39 % случаев.
Исследователи допускают, что пользователей подкупает вежливость, проявляемая ИИ. «Последующие полуструктурированные интервью показали, что вежливый язык, чётко сформулированные ответы в стиле учебника, а также полнота являются одними из основных причин, по которым ответы ChatGPT выглядели более убедительными, поэтому участники ослабили бдительность и упустили из виду некоторую дезинформацию в ответах ChatGPT», — сообщили они.