Заряжай все девайсы одновременно! Скидка -15% на беспроводные зарядки CasePro К покупкам ⚡️

Бесплатная доставка Новой Почтой при заказе аксессуаров на сумму от 999 грн 🤑

 
Сотрудники OpenAI предупреждают о опасностях ИИ

Сотрудники OpenAI предупреждают о опасностях ИИ

в iCases Blog

Несколько нынешних и бывших сотрудников OpenAI и Google DeepMind поделились открытым письмом с предупреждением об опасностях передового ИИ и нынешнем отсутствии надзора за компаниями, работающими над технологией ИИ.

Сотрудники предполагают, что развитие искусственного интеллекта сопряжено со многими рисками, с которыми они сталкиваются, включая существующее неравенство, манипуляции, дальнейшее распространение дезинформации и потерю контроля над автономными системами искусственного интеллекта. Это, как говорится в письме, может привести к вымиранию человечества.

У компаний, занимающихся искусственным интеллектом, есть «сильный финансовый стимул» продвигать разработки и делиться информацией о мерах защиты и уровне риска. «Мы не думаем, что они могут рассчитывать на то, что все будут делиться ею добровольно», - говорят нынешние и бывшие сотрудники, которым следует высказаться.

До тех пор, пока нет эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники являются одними из немногих людей, которые могут привлечь их к ответственности перед общественностью. Тем не менее, широкие соглашения о конфиденциальности не дают нам выражать наши опасения, за исключением тех самых компаний, которые, возможно, не могут решить эти проблемы. Обычная защита осведомителей недостаточна, потому что она сосредоточена на незаконной деятельности, в то время как многие из рисков, о которых мы беспокоимся, еще не регулируются.

В конечном итоге сотрудники будут настаивать на том, чтобы компании, занимающиеся разработкой ИИ, обеспечивали надежную защиту информаторам, рассказывая о рисках, связанных с ИИ.

  • Избегайте заключения договоров или принуждения к их исполнению, чтобы предотвратить критику вопросов, связанных с рисками.
  • Это обеспечит сотрудникам возможность проверки и анонимности, а советам директоров, регулирующим органам и независимым организациям с соответствующим опытом - возможность задать вопросы о рисках.
  • Если коммерческая тайна защищена, поддерживайте культуру открытой критики, чтобы сотрудники могли выразить свою обеспокоенность технологическими рисками общественности, советам директоров, регулирующим органам и т. д.
  • Избегайте репрессий в отношении сотрудников, которые публично делятся конфиденциальной информацией о рисках после того, как другие процессы не дали результатов.

Среди них 7 бывших сотрудников OpenAI, 4 нынешних сотрудника OpenAI, 1 бывший сотрудник Google DeepMind и 1 нынешний сотрудник Google DeepMind - всего 13 сотрудников подписали это письмо. OpenAI заставляет своих сотрудников подписывать строгие соглашения о конфиденциальности, которые подвергаются критике, угрожая потерять свои акции из-за замечаний.

Письмо появилось в тот момент, когда Apple готовится представить несколько функций на основе искусственного интеллекта в iOS 18 и других обновлениях программного обеспечения в понедельник. Apple работает над собственными возможностями искусственного интеллекта, которые будут реализованы в приложениях для всей операционной системы, а также подписала соглашение с OpenAI для интеграции возможностей Chatgpt в iOS 18.

Добавить комментарий
Еще статьи по теме