Сам Альтман ответил Министерству обороны о подписании контракта: поспешное сотрудничество для смягчения ситуации, AGI, возможно, должен быть под руководством правительства

Согласно новостям BlockBeats, 2 марта генеральный директор OpenAI Сэм Олтман вчера провёл публичное интервью на X, чтобы ответить на вопросы сообщества о подписании OpenAI с Министерством обороны США, и оригинальный пост набрал более 6,6 миллиона просмотров и более 7 500 ответов. Что касается того, почему сделка была настолько поспешной, Олтман объяснил, что OpenAI в последние месяцы только вела переговоры о несекретном сотрудничестве с Министерством обороны США и отклоняла контракты в области конфиденциальности (позже выполненные Anthropic), но после запрета Anthropic Министерство обороны США внезапно ускорило развертывание секретов, и причиной поспешного подписания OpenAI стало «деэскалирование ситуации». Также было отмечено, что было проведено переговоры о том, чтобы аналогичные условия были открыты для всех остальных лабораторий ИИ.

Когда его спросили, почему он не выступил в защиту Anthropic, Олтман ответил, что включение Anthropic в список «рисков цепочки поставок» было «очень вредным для отрасли, страны и для Anthropic», «Это очень плохое решение Министерства обороны США, и я надеюсь, что они его отозгнут», но также отметил, что Anthropic «больше заботится о конкретных запретах в контракте, чем о действующих законах, и, возможно, хочет больше оперативного контроля, чем мы» в переговорах.

Что касается собственной красной линии OpenAI, Олтман сказал: «Если нас попросят сделать что-то неконституционное или незаконное, мы откажемся. Пожалуйста, приходи в тюрьму навестить меня.» Говоря о зарубежной слежке, Олтман признался, что ему «не нравится» наблюдение американских вооружённых за иностранцами, сказав, что принцип ИИ, который для него важен больше всего, — это «демократизация», и что наблюдение может противоречить этому, но «я не думаю, что решать мне».

В своём заключении Олтман задаёт вопрос, который «скрыт за многими вопросами», но никто не задаёт его напрямую: что если правительство США попытается национализировать OpenAI или другие проекты ИИ? Он сказал, что «давно считает, что создание AGI, вероятно, должно быть государственным проектом».

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев