AI -Company Openi сотрудничает с национальными лабораториями США для повышения безопасности ядерного оружия, что приводит к тому, что надежды и опасения по поводу надежности технологии. До 15 000 ученых, работающих в национальных лабораториях, доступ к передовым моделям AI OpenaI, особенно в семействе O1, которые предназначены для глубокого анализа данных и расширенного вывода. Безопасность опасных материалов. Тем не менее, эксперты в этой области выразили оговорки, сославшись на известные уязвимости моделей Openai к утечкам информации и фактическим ошибкам. В то время как компания обещала улучшить системы безопасности, риск разоблачения очень конфиденциальных данных. Модели. изменил свою позицию на бывшего президента Трампа, которого он ранее раскритиковал, в настоящее время внося 1 миллион долларов в первый президентский фонд. Это изменение отношения подчеркивает все более тесные связи между компанией ИИ и политическим руководством США. утверждал, что модели Openai остаются превосходными. В ответ на модели DeepSeek OpenAI запустила сильную контратаку, обвинив китайскую компанию в использовании данных о недвижимости OpenAI для обучения своей модели R1. Некоторые заботятся о антиутопических сценах, изображенных в научно -фантастических фильмах. Поскольку системы ИИ все чаще допускаются в критические решения, в том числе ядерные оружия, остается вопрос: должен ли ИИ придерживаться самых мощных и разрушительных технологий человечества? В настоящее время кажется, что и Вашингтон, и Openai готовы к риску.