Совокупные потери российских авторов контента к 2030 г. могут достичь 1 трлн руб. на фоне развития генеративного искусственного интеллекта. К такому выводу пришли эксперты ВШЭ в исследовании, посвященном экономическим последствиям использования ИИ.
Аналитики разработали оригинальную методику оценки потерь. Они рассмотрели 12 творческих профессий, наиболее подверженных риску от использования ИИ, определили долю сгенерированного контента в различных видах творчества и оценили сокращение доходов авторов, не использующих нейросети. При этом позитивные эффекты ИИ — повышение производительности и снижение барьеров входа на рынок — в исследовании сознательно не учитывались.
Вероятный ущерб авторов был разделен на два вида. Первый — снижение оплаты авторского заказа и замещение труда. В течение следующих пяти лет, по оценкам ВШЭ, такие потери могут составить 935,2 млрд руб. Второй вид — сокращение доходов авторов и других правообладателей из-за поступления в оборот произведений, которые полностью или преимущественно созданы с помощью ИИ. По этой причине авторы могут потерять 68,5 млрд руб. к концу десятилетия.
Так, от замещения труда наибольшие потери к 2030 г. понесут программисты и разработчики приложений (542,3 млрд руб.), специалисты по рекламе и маркетингу (169,9 млрд руб.), переводчики и лингвисты (48,8 млрд руб.). Ввод в оборот генеративного контента может нанести максимальный ущерб писателям, поэтам и литераторам (42 млрд руб.), а также музыкантам, певцам и композиторам (25,25 млрд руб.).
«Инновации невозможно остановить, но крайне важно выстроить сбалансированный диалог между авторами, технологическими компаниями и государством, — отмечает первый проректор НИУ ВШЭ Леонид Гохберг. — Генеративный ИИ не должен стать угрозой для творческих профессий. Его нужно рассматривать как инструмент, дополняющий человеческое воображение, а не заменяющий его».
Исследователи подчеркивают, что ИИ на практике все чаще выступает ассистентом, а существующие решения не могут полноценно заменить творческие профессии. Кроме того, генеративные модели страдают от галлюцинаций, ошибок и грозят репутационными рисками.
Так, недавнее исследование говорит о том, что у больших языковых моделей может развиваться деградация (Brain Rot). Такой феномен наблюдается у моделей, которые обучаются на некачественных данных из интернета. При длительном обучении на таких данных система теряет связность повествования, может проявлять нарциссизм, агрессию и утрачивает способность сотрудничать с пользователем.
БКС Мир инвестиций