Сам Альтман відповів на вибір Міністерства оборони США на користь OpenAI замість Anthropic: можливо, через розбіжності у вимогах щодо операційного контролю

Він розповів, що Anthropic і Міністерство війни США були «дуже близькі до досягнення згоди» в певний момент, і що обидві сторони мали сильну готовність співпрацювати протягом більшої частини переговорів, але ситуація може швидко погіршитися в напруженій ситуації, що може бути однією з важливих причин, чому угода остаточно не була реалізована. Щодо концепцій безпеки, OpenAI застосовує підхід «багаторівневої безпеки», включно зі створенням стеку технологій безпеки, залученням інженерів передової лінії розгортання (FDE), залученням дослідників безпеки до проєктів, реалізацією через хмарне розгортання та безпосередньою співпрацею з Міністерством війни США. Оскільки технічні заходи безпеки є основною гарантією, але інші компанії можуть мати різні позиції, Anthropic може прагнути отримати більший оперативний контроль у співпраці, що може бути однією з причин розбіжностей двох напрямків.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів