Сам Альтман ответил на выбор Министерства обороны США в пользу OpenAI вместо Anthropic: возможно, из-за разногласий по вопросам контроля над операциями

Он сообщил, что Anthropic и Министерство войны США в какой-то момент были «очень близки к достижению соглашения», и что обе стороны были готовы сотрудничать на большей части переговоров, но ситуация может быстро ухудшиться в условиях крайне напряжённой переговорной среды, что, возможно, является одной из важных причин, по которым сделка в итоге не состоялась. Что касается концепций безопасности, OpenAI применяет подход «многоуровневой безопасности», включая создание стека технологий безопасности, привлечение инженеров на передовой развертывания (FDE), вовлечение исследователей безопасности в проекты, внедрение через облачное развертывание и прямую работу с Министерством войны США. Поскольку технические меры безопасности являются основной гарантией, но у других компаний могут быть иные позиции, Anthropic может захотеть получить больше оперативного контроля над сотрудничеством, что может быть одной из причин расхождения двух путей.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев