Исследователи OpenAI: системы ИИ могут справиться с большей частью исследовательской работы в течение двух лет

Сообщение Gate News, 29 апреля — исследователи OpenAI Сэбастьен Бьюбек и Эрнест Рю заявляют, что системы ИИ смогут выполнять большую часть человеческой исследовательской работы в течение двух лет, представляя математику как четкий показатель прогресса ИИ. В отличие от расплывчатых тестов производительности, математические задачи дают точную верификацию: ответы либо правильные, либо неправильные, не оставляя места для двусмысленности.

Бьюбек отметил, что истинное мышление ИИ требует способности выдерживать длинные цепочки рассуждений. Одна ошибка в многошаговом аргументе рушит все доказательство, делая обнаружение и исправление ошибок по ходу процесса главной целью для продвинутых моделей. Внутренние лаборатории OpenAI уже сгенерировали более десяти полностью новых теорем, пригодных для публикации в ведущих журналах по комбинаторике, демонстрируя, что ИИ теперь создает действительно оригинальные, прорывные работы, выходя за рамки простого комбинирования уже существующих статей.

Однако устойчивые научные прорывы требуют постоянного сосредоточения на протяжении недель тестирования. Текущие системы все еще нуждаются в строгом человеческом надзоре, чтобы направлять и проверять каждую смену курса. Бьюбек использует выражение “время для достижения AGI” (AGI time), чтобы измерить, как долго модель может независимо имитировать человеческое мышление; текущие системы работают примерно от нескольких дней до одной недели, а цель индустрии — недели или месяцы, чтобы обеспечить автономную работу в таких областях, как биология.

Долговременная память критически важна для этого будущего. Обычные окна чата ограничивают глубину — сложные математические доказательства часто превышают 50 страниц — тогда как репозитории кода показывают, как расширенные сессии работы позволяют вести более глубокое решение задач. По мере того как ИИ получает больше независимости и памяти, человеческая экспертиза становится более ценной, а не менее. Работникам нужно сохранять глубокие базовые знания, чтобы оспаривать и верифицировать ответы машины, а организациям потребуются новые автоматизированные фильтры и системы репутации, чтобы поддерживать доверие в условиях потока научных исследований, дополненных ИИ.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев