Команда специалистов OpenAI по защите человечества от угроз, связанных с ИИ, просуществовала менее года - «Новости сети» » Новости мира Интернет
Китайские разработчики ИИ признают, что в ближайшие несколько лет им вряд ли удастся опередить США - «Новости сети»
Китайские разработчики ИИ признают, что в ближайшие несколько лет им вряд ли удастся опередить США - «Новости сети»
Google представила универсальный протокол UCP для организации покупок через чат-боты - «Новости сети»
Google представила универсальный протокол UCP для организации покупок через чат-боты - «Новости сети»
«Эта игра будет жить вечно»: фанатов The Witcher 3: Wild Hunt заворожила демонстрация амбициозного мода HD Reworked Project NextGen Edition 2026 - «Новости сети»
«Эта игра будет жить вечно»: фанатов The Witcher 3: Wild Hunt заворожила демонстрация амбициозного мода HD Reworked Project NextGen Edition 2026 - «Новости сети»
MSI выпустит сразу три версии сверхмощной GeForce RTX 5090 Lightning: X, Z и OCER — последняя в открытой продаже не появится - «Новости сети»
MSI выпустит сразу три версии сверхмощной GeForce RTX 5090 Lightning: X, Z и OCER — последняя в открытой продаже не появится - «Новости сети»
Власти Индии собираются требовать от производителей смартфонов раскрывать исходный программный код - «Новости сети»
Власти Индии собираются требовать от производителей смартфонов раскрывать исходный программный код - «Новости сети»
Larian ответила на вопросы игроков о Divinity и генеративном ИИ в разработке — новые подробности амбициозной RPG от создателей Baldur’s Gate 3 - «Новости сети»
Larian ответила на вопросы игроков о Divinity и генеративном ИИ в разработке — новые подробности амбициозной RPG от создателей Baldur’s Gate 3 - «Новости сети»
«Думал, быстрее умру, чем дождусь её»: спустя семь лет после «Мора» в Steam вышла Pathologic 3 - «Новости сети»
«Думал, быстрее умру, чем дождусь её»: спустя семь лет после «Мора» в Steam вышла Pathologic 3 - «Новости сети»
«Sea of Thieves, но в пустыне»: трейлер эвакуационного шутера Sand: Raiders of Sophie понравился игрокам - «Новости сети»
«Sea of Thieves, но в пустыне»: трейлер эвакуационного шутера Sand: Raiders of Sophie понравился игрокам - «Новости сети»
Учёные нашли способ превращения испорченного молока в материал для 3D-печати - «Новости сети»
Учёные нашли способ превращения испорченного молока в материал для 3D-печати - «Новости сети»
Adata и MSI показали «первые в мире» 4-ранговые модули памяти DDR5 CUDIMM на 128 Гбайт - «Новости сети»
Adata и MSI показали «первые в мире» 4-ранговые модули памяти DDR5 CUDIMM на 128 Гбайт - «Новости сети»
Новости мира Интернет » Новости » Новости мира Интернет » Команда специалистов OpenAI по защите человечества от угроз, связанных с ИИ, просуществовала менее года - «Новости сети»

Уход из OpenAI одного из основателей этого стартапа Ильи Суцкевера, как поясняет CNBC, стал одной из причин распада команды специалистов по управлению долгосрочными рисками, связанными с внедрением искусственного интеллекта. Эта структурная единица, призванная защитить человечество от угроз, возникающих в связи с распространением ИИ, не просуществовала в OpenAI и одного года.



Команда специалистов OpenAI по защите человечества от угроз, связанных с ИИ, просуществовала менее года - «Новости сети»


Источник изображения: Университет Торонто



По данным CNBC, озабоченность подобными рисками уже давно проявлял сам Илья Суцкевер (на фото выше), руководивший в OpenAI научными изысканиями и исследованиями. Он же возглавлял и профильную команду по управлению рисками вместе с Яном Лейке (Jan Leike), но последний на уходящей неделе тоже покинул штат компании. Сформированная в прошлом году команда, как изначально подразумевалась, будет следить за минимизацией рисков, связанных с распространением технологий искусственного интеллекта, и OpenAI намеревалась выделить до 20 % своих вычислительных ресурсов для этих нужд в течение ближайших четырёх лет. После ухода руководителей команды её оставшиеся члены были назначены на другие позиции внутри компании.


Вчера Ян Лейке заявил, комментируя свой уход из OpenAI, что «культура безопасности и процессы уступили место сияющим продуктам». Как и в случае с уходом Ильи Суцкевера, действующий генеральный директор OpenAI Сэм Альтман (Sam Altman) выразил сожаление по поводу отставки Яна Лейке. По словам последнего, он уже длительное время не разделял взглядов руководства на приоритетные направления развития компании, и теперь эти противоречия достигли критического значения. Как он считает, OpenAI должна уделять больше внимания безопасности и влиянию создаваемых технологий на общество. На протяжении последних нескольких месяцев профильная команда внутри OpenAI, по словам Лейке, буквально «шла по воде под парусом против ветра». Достигать поставленных задач становилось всё сложнее, специалисты были очень ограничены в ресурсах. Лейке по-прежнему убеждён, что OpenAI должна в разработке генеративного искусственного интеллекта быть компанией, ставящей безопасность во главу угла, поскольку «создание машин, превосходящих людей — это очень опасная затея».


Как поясняет Bloomberg, компания OpenAI сохранит в своём штате специалистов, которые следят за безопасностью искусственного интеллекта, но они будут рассредоточены по различным подразделениям. Схожими функциями будут наделены и обособленные подразделения стартапа, поэтому говорить о полностью бесконтрольном развитии ИИ в новых условиях не приходится.

Цитирование статьи, картинки - фото скриншот - Rambler News Service.
Иллюстрация к статье - Яндекс. Картинки.
Есть вопросы. Напишите нам.
Общие правила  поведения на сайте.

Уход из OpenAI одного из основателей этого стартапа Ильи Суцкевера, как поясняет CNBC, стал одной из причин распада команды специалистов по управлению долгосрочными рисками, связанными с внедрением искусственного интеллекта. Эта структурная единица, призванная защитить человечество от угроз, возникающих в связи с распространением ИИ, не просуществовала в OpenAI и одного года. Источник изображения: Университет Торонто По данным CNBC, озабоченность подобными рисками уже давно проявлял сам Илья Суцкевер (на фото выше), руководивший в OpenAI научными изысканиями и исследованиями. Он же возглавлял и профильную команду по управлению рисками вместе с Яном Лейке (Jan Leike), но последний на уходящей неделе тоже покинул штат компании. Сформированная в прошлом году команда, как изначально подразумевалась, будет следить за минимизацией рисков, связанных с распространением технологий искусственного интеллекта, и OpenAI намеревалась выделить до 20 % своих вычислительных ресурсов для этих нужд в течение ближайших четырёх лет. После ухода руководителей команды её оставшиеся члены были назначены на другие позиции внутри компании. Вчера Ян Лейке заявил, комментируя свой уход из OpenAI, что «культура безопасности и процессы уступили место сияющим продуктам». Как и в случае с уходом Ильи Суцкевера, действующий генеральный директор OpenAI Сэм Альтман (Sam Altman) выразил сожаление по поводу отставки Яна Лейке. По словам последнего, он уже длительное время не разделял взглядов руководства на приоритетные направления развития компании, и теперь эти противоречия достигли критического значения. Как он считает, OpenAI должна уделять больше внимания безопасности и влиянию создаваемых технологий на общество. На протяжении последних нескольких месяцев профильная команда внутри OpenAI, по словам Лейке, буквально «шла по воде под парусом против ветра». Достигать поставленных задач становилось всё сложнее, специалисты были очень ограничены в ресурсах. Лейке по-прежнему убеждён, что OpenAI должна в разработке генеративного искусственного интеллекта быть компанией, ставящей безопасность во главу угла, поскольку «создание машин, превосходящих людей — это очень опасная затея». Как поясняет Bloomberg, компания OpenAI сохранит в своём штате специалистов, которые следят за безопасностью искусственного интеллекта, но они будут рассредоточены по различным подразделениям. Схожими функциями будут наделены и обособленные подразделения стартапа, поэтому говорить о полностью бесконтрольном развитии ИИ в новых условиях не приходится.

0

Смотрите также

А что там на главной? )))



Комментарии )))