
Співробітники OpenAI попереджають про небезпеки ШІ
в iCases BlogДекілька нинішніх та колишніх співробітників OpenAI та Google DeepMind поділилися відкритим листом з попередженням про небезпеки передового ШІ та нинішню відсутність нагляду за компаніями, що працюють над технологією ШІ.
Співробітники припускають, що розвиток штучного інтелекту пов'язаний із багатьма ризиками, з якими вони стикаються, включаючи існуючу нерівність, маніпуляції, подальше поширення дезінформації та втрату контролю над автономними системами штучного інтелекту. Це, як кажуть у листі, може призвести до вимирання людства.
У компаній, які займаються штучним інтелектом, є «сильний фінансовий стимул» просувати розробки та ділитися інформацією про заходи захисту та рівень ризику. «Ми не думаємо, що вони можуть розраховувати на те, що всі ділитимуться нею добровільно», - кажуть нинішні та колишні співробітники, яким слід висловитися.
Доки немає ефективного державного нагляду за цими корпораціями, нинішні та колишні співробітники є одними з небагатьох людей, які можуть притягнути їх до відповідальності перед громадськістю. Тим не менш, широкі угоди про конфіденційність не дають нам висловлювати наші побоювання, за винятком тих самих компаній, які, можливо, не можуть вирішити ці проблеми. Звичайний захист інформаторів недостатній, тому що він зосереджений на незаконній діяльності, тоді як багато ризиків, про які ми турбуємося, ще не регулюються.
Зрештою співробітники наполягатимуть на тому, щоб компанії, які займаються розробкою ІІ, забезпечували надійний захист інформаторам, розповідаючи про ризики, пов'язані з ІІ.
- Уникайте укладання договорів або примусу до їх виконання, щоб запобігти критикі питань, пов'язаних із ризиками.
- Це забезпечить співробітникам можливість перевірки та анонімності, а радам директорів, регулюючим органам та незалежним організаціям з відповідним досвідом – можливість поставити питання про ризики.
- Якщо комерційна таємниця захищена, підтримуйте культуру відкритої критики, щоб співробітники могли висловити своє занепокоєння технологічними ризиками громадськості, радами директорів, регулюючим органам тощо.
- Уникайте репресій щодо працівників, які публічно діляться конфіденційною інформацією про ризики після того, як інші процеси не дали результатів.
Серед них 7 колишніх співробітників OpenAI, 4 нинішніх співробітників OpenAI, 1 колишній співробітник Google DeepMind та 1 нинішній співробітник Google DeepMind – лише 13 співробітників підписали цей лист. OpenAI змушує своїх співробітників підписувати суворі угоди про конфіденційність, які піддаються критиці, погрожуючи втратити свої акції через зауваження.
Лист з'явився тоді, коли Apple готується представити кілька функцій на основі штучного інтелекту в iOS 18 та інших оновленнях програмного забезпечення в понеділок. Apple працює над власними можливостями штучного інтелекту, які будуть реалізовані у додатках для всієї операційної системи, а також підписала угоду з OpenAI для інтеграції можливостей Chatgpt до iOS 18.