
Сотрудники OpenAI предупреждают о опасностях ИИ
в iCases BlogНесколько нынешних и бывших сотрудников OpenAI и Google DeepMind поделились открытым письмом с предупреждением об опасностях передового ИИ и нынешнем отсутствии надзора за компаниями, работающими над технологией ИИ.
Сотрудники предполагают, что развитие искусственного интеллекта сопряжено со многими рисками, с которыми они сталкиваются, включая существующее неравенство, манипуляции, дальнейшее распространение дезинформации и потерю контроля над автономными системами искусственного интеллекта. Это, как говорится в письме, может привести к вымиранию человечества.
У компаний, занимающихся искусственным интеллектом, есть «сильный финансовый стимул» продвигать разработки и делиться информацией о мерах защиты и уровне риска. «Мы не думаем, что они могут рассчитывать на то, что все будут делиться ею добровольно», - говорят нынешние и бывшие сотрудники, которым следует высказаться.
До тех пор, пока нет эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники являются одними из немногих людей, которые могут привлечь их к ответственности перед общественностью. Тем не менее, широкие соглашения о конфиденциальности не дают нам выражать наши опасения, за исключением тех самых компаний, которые, возможно, не могут решить эти проблемы. Обычная защита осведомителей недостаточна, потому что она сосредоточена на незаконной деятельности, в то время как многие из рисков, о которых мы беспокоимся, еще не регулируются.
В конечном итоге сотрудники будут настаивать на том, чтобы компании, занимающиеся разработкой ИИ, обеспечивали надежную защиту информаторам, рассказывая о рисках, связанных с ИИ.
- Избегайте заключения договоров или принуждения к их исполнению, чтобы предотвратить критику вопросов, связанных с рисками.
- Это обеспечит сотрудникам возможность проверки и анонимности, а советам директоров, регулирующим органам и независимым организациям с соответствующим опытом - возможность задать вопросы о рисках.
- Если коммерческая тайна защищена, поддерживайте культуру открытой критики, чтобы сотрудники могли выразить свою обеспокоенность технологическими рисками общественности, советам директоров, регулирующим органам и т. д.
- Избегайте репрессий в отношении сотрудников, которые публично делятся конфиденциальной информацией о рисках после того, как другие процессы не дали результатов.
Среди них 7 бывших сотрудников OpenAI, 4 нынешних сотрудника OpenAI, 1 бывший сотрудник Google DeepMind и 1 нынешний сотрудник Google DeepMind - всего 13 сотрудников подписали это письмо. OpenAI заставляет своих сотрудников подписывать строгие соглашения о конфиденциальности, которые подвергаются критике, угрожая потерять свои акции из-за замечаний.
Письмо появилось в тот момент, когда Apple готовится представить несколько функций на основе искусственного интеллекта в iOS 18 и других обновлениях программного обеспечения в понедельник. Apple работает над собственными возможностями искусственного интеллекта, которые будут реализованы в приложениях для всей операционной системы, а также подписала соглашение с OpenAI для интеграции возможностей Chatgpt в iOS 18.