В последние годы искусственный интеллект, в частности нейросети, стал широко применяться в различных областях, включая точные науки, такие как математика и физика. ChatGPT, одна из передовых моделей генерации текста, вызывает интерес и возникает вопрос: можно ли доверять ChatGPT в точных науках? В этой статье мы рассмотрим, как нейросети справляются (и справляются ли вообще) с точными науками.

А подробнее о нейросетях – тут.

Немного про ChatGPT

ChatGPT — это одна из передовых моделей генерации текста, основанная на архитектуре GPT (Generative Pre-trained Transformer). Эта модель разработана компанией OpenAI и использует методы глубокого обучения для генерации качественного и связного текста в ответ на заданный вопрос или запрос.

Основная идея ChatGPT заключается в том, что она предварительно обучается на огромном объеме текстовых данных, включая Интернет, книги, статьи и другие источники информации. В ходе обучения модель изучает языковые структуры, общие концепции и связи. В каких-то источниках информации могут содержаться математические данные и правила, которые нейросеть “подхватит” и выучит. Но все ли так хорошо?

Языковые модели и цифры: есть ли связь?

Математика и физика используются во многих областях науки, от инженерии до социальных. Иногда студенты, начинающие математики и просто обычные люди могут идти к ChatGPT за ответом на математические вопросы. Оправданно ли это?

Было проведено исследование, целью которого было изучение способности этого бота показывать навыки, необходимые математикам. Была собрана специальная база, включая олимпиадную математику, вышмат, некоторые задачи связанные с физикой, теоретическая база. Дополнительной задачей было – поиск математической литературы. Корпус выстраивался из задачников, других математических выборок. Стоит отметить, что с какими-то простыми математическими задачами ChatGPT справлялся, а на азах высшей математики сильно спотыкался. При этом, он не показывал непонимания вопросы, а ответы были неверны. Особенно трудны были олимпиадные задачи.

Также Чат продемонстрировал плохие способности к вычислению. Он не умел интегрировать, просто упуская константу, хотя саму функцию объяснял правильно. Не мог комбинировать разные формулы для решения одной задачи. Общая проблема состояла в потере данных или их неправильной интерпретации.

Также, исследования показали, что базовая арифметика и перестановка выражений давались боту нелегко, а если нужно было что-то доказать – он справлялся с этим. Вероятно, это связано с тем, что арифметика и использование ее правил задействуют наименьший корпус базы знаний бота, а в “доказательствах” он уже может проявить себя как языковая модель.

Решение на поверхности

Простое решение состоит в том, чтобы дообучать модель на основе подготовленных данных. Например, если взять тему математических рядов, поначалу бот будет справляться с ними не очень хорошо, особенно если будут дополнительные условия. Однако, если предоставить ему дообучение формата “пример, подробное решение, ответ”, то он сможет выйти на правильный путь. Однако, нужно всегда перепроверять его результаты – это ведь языковая модель, а не специализированный софт.

Заключение

В итоге, ответ на вопрос о доверии ChatGPT в точных науках не может быть однозначным. ChatGPT является мощным инструментом, способным предоставлять общую информацию, объяснения и решать простые задачи в математике и физике. Однако, при работе с сложными и специфическими задачами, особенно требующими высокой точности, всегда рекомендуется проверять результаты и дополнять их дополнительной экспертизой и исследованиями.