
ИИ-сервис для заметок Granola изменил политику конфиденциальности после скандала с обучением моделей
в iCases BlogКомпания Granola, разработчик популярного ИИ-инструмента для протоколирования встреч, объявила о переходе на модель opt-in для сбора данных.
Это произошло после того, как расследование The Verge обнаружило, что сервис по умолчанию использовал частные заметки пользователей для тренировки своих алгоритмов.
До недавнего времени Granola применяла скрытую настройку: записи разговоров и структурирование заметок автоматически попадали в базу данных для улучшения будущих итераций искусственного интеллекта. Пользователи, которые не углублялись в меню конфиденциальности, фактически предоставляли компании доступ к своим корпоративным и личным секретам.
В чем заключалась проблема?
Как отмечает издание The Verge, главным риском стала «анонимизация», которая действительно не гарантирует полной конфиденциальности. Даже если из текста удалены имена, контекст обсуждения бизнес-стратегий, юридических нюансов или частных психологических консультаций может разрешить идентифицировать участников разговора. Для специалистов, чья деятельность основывается на доверии и профессиональной тайне, это создавало прямую угрозу нарушению этических и правовых норм.
После публичной огласки и волны возмущения в профессиональных сообществах команда Granola выпустила обновление. Теперь обучение ИИ на данных пользователя отключено по умолчанию.
«Мы услышали обеспокоенность нашего сообщества. Теперь каждый пользователь должен сознательно разрешить, если он хочет помочь нам в совершенствовании моделей», — говорится в заявлении компании.
Этот инцидент подчеркивает глобальный тренд 2026: борьбу за прозрачность в отношениях между разработчиками ИИ и владельцами данных. Случай из Granola стал важным прецедентом, заставляющим другие стартапы пересматривать свои политики «тихого сбора» информации в пользу более честной модели взаимодействия с клиентами.

