Искусственный интеллект создаёт фальшивые научные исследования
Ученые из США провели эксперимент, демонстрирующий, как искусственный интеллект может генерировать фальшивые научные публикации. Они попросили ChatGPT написать пять текстов, содержащих ошибки и вымышленные цитаты, а затем отправили их в 250 научных журналов, известных своей низкой проверкой качества. Около 50 изданий согласились опубликовать эти работы — при условии оплаты в среднем 500 евро.
В другом исследовании специалисты сравнили реальные научные аннотации с теми, что создал ChatGPT. Рецензенты в 32% случаев не смогли отличить машинный текст от человеческого. Это вызывает опасения: поддельные исследования, распространяясь в соцсетях, могут использоваться как «доказательства» лженаучных теорий. Например, недавно вирусной стала статья, написанная ИИ Grok, которая оспаривала изменение климата, опираясь на давно опровергнутые данные.
Почему это опасно
Журналы-«хищники», публикующие статьи без проверки за деньги, становятся каналом для дезинформации. Фальшивые исследования, оформленные профессионально, усложняют борьбу с мифами — особенно в таких чувствительных сферах, как медицина или экология.