Инструменты искусственного интеллекта бросают вызов научным инструментам поиска истины
// monocle.ru
...
Не следует смешивать две темы, касающиеся использования нейросетей в науке. Первое — это использование инструментов искусственного интеллекта, созданных и обученных специально для решения какой-то научной проблемы. Здесь есть впечатляющие успехи и бурный рост числа публикаций. В части из них сравниваются разные компьютерные модели для решения задач — разной хитрости алгоритмы, разные модели компьютерного обучения и собственно нейронные сети. (Такие машины учатся на больших данных, результаты обучения записывают в форме связей между виртуальными «нейронами» — узлами сети и работают как «черный ящик» — как именно они решают задачи, неизвестно.) Тренд тут очевиден: благодаря прогрессу в вычислительных мощностях и оцифровке данных нейросетевые модели ИИ все чаще выигрывают и у формульных алгоритмов (решающих задачи согласно теории), у статистических методов, а также у других алгоритмов компьютерного обучения.
Самым впечатляющим примером успеха искусственного интеллекта науке остается результат, достигнутый в 2020 году нейросетевой моделью AlphaFold (потомок DeepMind), которая с потрясающей точностью решает одну из главных проблем молекулярной биологии — предсказывает 3D-структуру белков на основе кодирующих их генов. Программа выложена с открытым кодом, ею уже активно пользуются ученые. Это вещь очень практичная: зная структуру белка, вы можете понимать функции генов и направленно проектировать лекарства, которые имеют мишенью данный белок. Кроме того,
с помощью ИИ уже открыто несколько перспективных лекарственных формул, предсказаны неизвестные ранее пути химического синтеза и многое другое.
Но в последнее время обсуждение инструментов искусственного интеллекта все чаще связано с выпуском в общий доступ ChatGPT и других больших генеративных языковых моделей (которые учатся на множестве текстов и сами их генерируют). Чат-бот ChatGPT и другие языковые модели респонденты-ученые в исследовании Nature называли чаще всего, когда их просили указать наиболее полезный пример инструментов ИИ в науке (AlphaFold идет на втором месте).
Стадия громкого успеха и роста ожиданий, связанных с разговорными и картиночными чатами, уже прошла, и даже стало проявляться некоторое разочарование их возможностями.
...
Как минимум сейчас уже очевидно, что ChatGPT помогает писать научные статьи на более внятном английском тем, для кого этот язык не родной.
...
Нельзя сказать, что сферу программ для редактирования текстов на неродном языке радикально преобразовал именно ChatGPT, программы проверки не только грамматики и орфографии, но и стиля были и до этого, тем не менее ChatGPT дал доступное и универсальное решение, расширив круг тех, кто пытается оптимизировать свою работу над статьями с помощью программ.
...
Доступность инструментов генеративного искусственного интеллекта может облегчить создание халтуры, которая стилистически выглядит похожей на настоящие статьи. Поэтому издатели научной литературы боятся растущих сложностей при рецензировании
-
а с рецензированием, кстати, таки уже явственно намечается большая ж.па. Число статей растёт, число изданий растёт - значит, по-хорошему хотя бы для сохранения уровня должно так же расти и число рецензентов. Или нагрузка на тех же рецензентов, что не вариант, качество пострадает неизбежно. Но с ростом числа резко растёт и сложность поиска рецензента под профиль!!! Мне порой приходят запросы на рецензирование статей по вообще другим профилям, я их в принципе не смогу качественно отрецензировать - не понимаю ничего в той тематике; но - в какой-то публикации совпало одно из ключевых слов, и тебе посылают запрос, а не отрецензируете ли нам что-нибудь по физике некоторых оптических особенностей сложных аэрозолей?! Да чтоб я понимал в ваших аэрозолях, да еще в их оптических особенностях... А я человека-то, который в чём-то подобном что-то понимает, видел один раз в жизни, да и то не видел, а по телефону говорил...
Если систему еще перегрузить продукцией нейросеток - может выйти ой.
Разве что нейросети здорового человека смогут улучшить подбор подходящих рецензентов? Но что-то сомнения гложут, что это получится в ближайшее время.
В опросе Nature о возможных негативных последствиях использования инструментов ИИ 68% исследователей обеспокоились проблемой распространения дезинформации, столько же, 68%, полагали, что это облегчит плагиат и усложнит его обнаружение, а 66% — что в научные работы могут быть внесены ошибки или неточности. В интервью ученые еще более пессимистичны. «Основная проблема заключается в том, что ИИ бросает вызов нашим существующим стандартам доказательства и истины», — считает Джеффри Чан, изучающий анализ изображений в Лаборатории Джексона в Фармингтоне (США).
Похоже, что использование общедоступных разговорных чатов (а не специально созданных моделей) для финального анализа научных данных — плохая идея. Определенный резонанс в западном научном мире вызвала опубликованная на сайте препринтов статья группы американских авторов, в которой GPT-4 предлагала вероятные диагнозы и методы лечения на основе данных серии клинических испытаний. Обнаружилось, что рекомендации чата носят неправдоподобный и дискриминационный характер по расе и полу пациента: воспроизводя, например, расовые стереотипы, назначая более или менее дорогостоящее лечение в зависимости от цвета кожи пациента. Вероятно, модель добросовестно научилась на базах данных, но от искусственного помощника ждешь не воспроизводства неидеальных социальных практик, а объективно полезных пациенту рекомендаций.
-
н-ну... забавно будет, если в данном случае рекомендации сетки окажутся действительно более правильными
Что ИМХО нельзя априори исключать.
Политкорретностью и прочими социальными табу он не скован - по крайней мере, в явном виде - что для исследователя большой плюс. Но, конечно, хочется надеяться, что табуированность еще не дошла до такого градуса, что сравнительно простай сетка может легко превзойти человека только за счёт свободы от общественно-навязанных табу
Языковые модели всего лишь генерируют тексты в стиле и на основе образцов, в их ответах не предполагается наличие внутренней логики. Но в формальных языках (языках программирования или математических теорий) большие языковые модели часто дают верные результаты, которые тоже, впрочем надо проверять.
Но для работы в специальных областях нужно обучать модели искусственного интеллекта именно на соответствующих задаче базах данных. Общедоступные чаты, даже когда они дают правдоподобные результаты, конечно, не застрахованы от ошибок.
Популярность и доступность инструментов генеративного искусственного интеллекта может облегчить создание халтуры, которая стилистически выглядит похожей на настоящие статьи. Поэтому издатели научной литературы боятся растущих сложностей при рецензировании. Уже были скандалы, некоторые авторы научных работ использовали ChatGPT для написания статей, попытавшись скрыть это от рецензентов. В некоторых случаях ловить халтуру относительно легко: в текстах остаются фальшивые ссылки или метки, оставленные самим искусственным интеллектом, но авторы не всегда допускают такие явные ляпы.
«Генеративный искусственный интеллект — это автоматизированный плагиат», — говорит Ирис ван Рой, когнитивист из Университета Радбода в Неймегене (Нидерланды). Даже добросовестные исследователи могут использовать чужую интеллектуальную собственность, не зная об этом: информация и тезисы могут быть найдены чатом и не быть снабжены правильными ссылками на источник. А для производителей халтуры и плагиата разговорные модели дают больше возможностей избегать прямого воровства буквально совпадающих кусков текста (что ловится программами антиплагиата), получать результаты, чуть больше похожие на оригинальный текст.
...
Проблема рецензирования
Проблема авторских прав на новое научное знание встает и при использовании языковых моделей для облегчения написания рецензий на присланную в научное издательство новую работу — в результате эта работа сохранится в памяти общедоступного чата и ее куски могут всплыть при запросе других пользователей. Поэтому Национальный институт здравоохранения США и некоторые другие институции в разных странах уже запретили использование ChatGPT и других общедоступных инструментов для проведения экспертных оценок грантов из соображений конфиденциальности.
Издательствам придется чаще проверять, действительно ли настоящий, живой автор стоит за тем, что написано в статье. Немецкое издательство EMBO Press уже сейчас требует от авторов использовать только действующие официальные электронные адреса своих институтов, а от сотрудников редакции — связываться с авторами по видеосвязи, рассказывает руководитель отдела научных публикаций Бернд Пульверер.
-
новая стадия "докажите, что вы не робот"
В октябре 2023 года в Nature вышла статья «Проверка воспроизводимости научных результатов: 246 биологов получили разные результаты на одних и тех же наборах данных». Авторы статьи разослали специалистам по экологии и эволюционной биологии два набора неопубликованных данных. Первый набор содержал измерения роста птенцов синички-лазоревки в зависимости от числа братьев и сестер, второй — данные о росте саженцев эвкалипта в зависимости от травяного покрова. В обоих случаях опрошенные ученые дали весь спектр возможных ответов. Это означает, в частности, что истину нельзя найти голосованием (даже ученых) и что, возможно, недостаточные данные или отсутствие компетенций для их анализа не удерживают ученых от того, чтобы делать выводы. И здесь открывается большой объем работы для специализированного искусственного интеллекта (очевидно, сделанного специально для науки). Объективная истина есть, и аккуратный анализ должен дать ответ, меньше ли вес синички, если у нее много братьев и сестер, или нет (или недостаточно данных), а также внятные ответы на другие, более сложные вопросы. Выводы ИИ надо будет проверять, но это лучше, чем постоянно полагаться на негодные статистические данные, проанализированные негодными методами многими живыми людьми, потому что меньшее число хороших специалистов не могут уследить за большим числом средних и нарастающим потоком халтуры. Плохая работа не выдерживает критики хорошим ученым, но с большой вероятностью не попадет к нему в руки.
Понятно, что эту задачу пока нельзя доверить общедоступным инструментам искусственного интеллекта «Но внутри каждой предметной области возможна определенная стандартизация обращения с большими данными, чтобы не получилось так, как это описано в упомянутой статье в Nature», — говорит академик Хохлов. И в этой задаче машина, очевидно могла бы быть точнее сотни ученых, если она хорошо научена анализировать большие данные конкретной области науки. Такие инструменты сейчас активно разрабатываются в разных лабораториях и применяются, например, на астрофизических и генетических данных
-
но если на какую-то область будет один общий инструмент-стандарт, то... Ох.