Российская газета,
22 января 2026 г.
Экономист Кульбака: Главные лазейки для мошенников – не в нейросетях, а в низком уровне финансовой грамотности людей
37 просмотров
По данным ВЦИОМ, почти треть (32 процента) россиян не доверяют технологиям искусственного интеллекта. Среди главных страхов, которые вызывает ИИ, - утечка собираемых им данных, использование его в корыстных целях и риск принятия решений, за которые никто не отвечает. Развитие искусственного интеллекта стало глобальным трендом. Но наряду с ростом возможностей ИИ растет и беспокойство о потенциальных угрозах, которые несет эта технология. Все чаще приходится слышать, что при таких темпах развития ИИ мы скоро утратим над ним контроль. Обсудим тему с экономистом Николаем Кульбакой.
Искусственный интеллект - это всего лишь инструмент
Насколько сегодняшний уровень технологий (нейросети для генерации видео, аудио, текстов) уже достаточен для массового и убедительного воздействия на общественное мнение? Где главные лазейки для злоумышленников?
Николай Кульбака: Главные лазейки для злоумышленников, увы, лежат не в уровне развития нейросетей, а в низком уровне финансовой и юридической грамотности людей. Говорить о том, что людей стали больше обманывать, сложно, особенно если вспомнить массовое участие людей в финансовых пирамидах 1990-х, проблемы обманутых дольщиков в 2000-х и телефонных мошенников 2010-х. Нейросети - всего лишь еще один инструмент, который мало что добавляет сам по себе, и его опасность существенно преувеличена.
Кто, по вашему мнению, будет основными «игроками» в использовании ИИ для конструирования повестки: отдельные государства, политические группы, коммерческие структуры, маргинальные сообщества? Каковы их возможные цели - от дестабилизации до коммерции?
Николай Кульбака: Искусственный интеллект - это всего лишь инструмент. Его качество зависит от наполнения информацией. Реально ни отдельные государства, ни коммерческие структуры, ни политические группы сейчас не в состоянии самостоятельно формировать наполнение информацией системы искусственного интеллекта. Для этого нужна информация, собираемая с огромного количества распределенных источников по всему миру. И эффективность будет зависеть именно от массовости. Поэтому, например, абсолютно бесперспективно создавать модель ИИ в рамках одной страны. Она будет заведомо проигрывать любой международной системе. Что касается целей использования, то они поистине огромны. Это анализ информации, помощь в программировании и написании текстов, формирование художественных образов, научная и образовательная деятельность. Это просто новый инструмент, которым нам еще предстоит научиться пользоваться. Что касается использования ИИ для дестабилизации, то это скорее ложные опасения, мало на чем основанные. Мы сейчас находимся в периоде большой переоценки возможностей ИИ, который уже подходит к концу.
Почему современное общество и медиасреда особенно уязвимы перед таким воздействием? Это вопрос скорости распространения информации, кризиса доверия к традиционным источникам или чего-то еще?
Николай Кульбака: Мы сейчас находимся в сложном периоде смены авторитетов в обществе. Старые источники информации, такие как газеты и телевидение, не успевают за изменениями в медийном потреблении. Старые институты, такие как научные учреждения и университеты, оказались во многом не готовы к изменению своей роли в распространении информации. Все это наложилось на низкий уровень образования среднестатистического человека, получившего, благодаря смартфонам, доступ к огромному объему информации, который он не умеет критически обрабатывать. Именно в этом и заключается причина роста популизма во многих странах, когда люди пытаются искать простые решения в весьма сложном современном мире.
Главные лазейки для злоумышленников лежат не в уровне развития нейросетей, а в невысокой финансовой и юридической грамотности людей
Синтетический контент едва ли многое поменяет в современном мире
Не приведет ли массовое использование синтетического контента в публичной сфере к окончательной эрозии доверия не только к медиа, но и к любым цифровым свидетельствам (фото, видео), а в итоге - к социальному атомизированию?
Николай Кульбака: Думаю, с этим вызовом современный мир точно справится, синтетический контент едва ли многое поменяет в современном мире. Тем более что жизнь большинства людей определяется не СМИ, а их повседневной жизнью, где происходит взаимодействие с реальными людьми, а все предметы весьма материальны - от автомобиля и автобуса до картошки и мебели. Действительно, использование смартфонов привело к определенному росту атомизации людей, но в реальном мире мы все равно ходим на работу, где сидят живые люди, сидим в кафе и учимся в университетах. Так что сильно на обществе это не скажется. И уж синтетический контент на это точно не повлияет.
Можно ли вообще этично использовать ИИ в публичных коммуникациях (например, для создания социальной рекламы или разъяснения политики)? Где должна проходить красная линия?
Николай Кульбака: Ну, тогда возникнет вопрос, насколько этична ретушь в фотографии. Вспомните, как затушевывали родимое пятно на голове у Горбачева и как непохожи были идеальные портреты членов политбюро на обрюзгших дядек, стоявших на мавзолее. Политику в обществе формируют все равно люди, и чем больше людей будет вовлечено в политическую и общественную жизнь, тем сложнее ими будет манипулировать.
Как эта технология может изменить сам характер политической борьбы и публичных дебатов? Станет ли «война нарративов», подкрепленных ИИ, важнее, чем дискуссия по сути?
Николай Кульбака: Такая опасность есть, но для того, чтобы это не произошло, необходимо обучение людей критическому мышлению, формирование у них активной общественной позиции, когда люди не являются тупыми потребителями контента, а сами формируют политическую повестку. Ведь политика, по сути, это конкурентная борьба за решение проблем групп людей с разными интересами. И чем разнообразнее интересы людей в политике, тем сложнее ими манипулировать. Что будет следующим логическим этапом? Интерактивные ИИ-агенты в соцсетях, ведущие персональные беседы с тысячами пользователей, или полная симуляция информационных событий «под ключ»?
Николай Кульбака: До этого еще очень и очень далеко. Люди много работают рядом с другими людьми, строят дороги и мосты, выращивают хлеб и делают научные открытия, пишут книги и создают произведения искусства, выращивают детей и спасают животных. И у них не так много времени, чтобы вступать в дискуссии с искусственным интеллектом. Кроме того, ИИ - это слишком дорогое удовольствие, чтобы персонализировано работать с каждым человеком. Тем более что по-настоящему образованный человек меньше поддается манипуляциям. И неважно, это манипуляции со стороны живых людей или искусственного интеллекта.
На что может опереться обычный человек и общество в целом для противодействия такой практике? Спасет ли нас развитие технологий детекции (искусственный иммунитет), или упор нужно делать на медиаграмотность и законодательство?
Николай Кульбака: Прежде всего, конечно, необходимо образование, основанное на критическом мышлении, умении дискутировать, собирать и анализировать информацию. Именно на этом основывается борьба с любым типом манипуляций. Дополнительно к этому следует добавить юридическую и финансовую грамотность, которые в нашем обществе пока еще в зачаточном состоянии. Законодательство мало этому поможет, поскольку для этого прежде всего придется учить новое поколение юристов, которые будут обладать всеми этими характеристиками, включая умение анализировать информацию и критически подходить к предоставляемым данным.
Какую ответственность должны нести социальные сети и поисковые системы за распространение синтетического контента? Должны ли они маркировать его, понижать в выдаче или полностью блокировать?
Николай Кульбака: Пока еще эта проблема точно не стоит так остро, поскольку синтетический контент по факту мало чем отличается от грамотных и серьезных комбинированных съемок. И чем, например, синтетический контент отличается от пения под фонограмму, очень часто чужую. Да и современный грим может до неузнаваемости изменить лицо человека.
Что касается целей использования ИИ, то они поистине огромны. Это анализ информации, помощь в написании текстов, формирование художественных образов, научная и образовательная деятельность
Возможно ли в принципе эффективное правовое регулирование этой сферы в глобальном мире? Не приведет ли жесткое регулирование в одной стране лишь к переносу таких операций в другие юрисдикции?
Николай Кульбака: В современном глобальном мире любая страна, закрывшая свои компьютерные сети от мировой информации, в долгосрочном периоде лишь получит потерю конкурентных преимуществ в своем развитии. Развитие современной информационной индустрии возможно лишь в условиях кооперации множества стран, множества языков и культур, миллионов людей, говорящих на разных языках, имеющих разный опыт и непрерывно вступающих во взаимодействие между собой. Конечно, сейчас мы увидим появление множества попыток регулировать ИИ. Это уже есть в Китае, в некоторых американских штатах, думают о регулировании в ЕС и России. Но законодательство по факту будет фатально отставать от развития технологий, и едва ли на законодательном уровне можно добиться грамотных и действенных ограничений, не уничтожив будущее ИИ. Это вечная война оружия и защиты от него.
Если экстраполировать текущий тренд на 5-10 лет, какой наиболее вероятный сценарий вы видите: человечество адаптируется и выработает защитные механизмы, либо мы вступим в эру перманентной «гибридной реальности», где любое публичное высказывание будет априори ставиться под сомнение?
Николай Кульбака: Мир за 5-10 лет, с одной стороны, сильно изменится, но, с другой стороны, останется все тем же миром, где большая часть жизни людей будет происходить в реальном мире, среди реальных вещей и проблем. А виртуальная реальность станет всего лишь помощником для педагогов и ученых, бизнесменов и артистов, политиков и пенсионеров.
Валерий ВЫЖУТОВИЧ
Николай Кульбака - кандидат экономических наук, член International Society for Ecological Economics. Автор книг и статей по региональной экономике, экономической истории, транспортной логистике и истории транспорта.
Вся пресса за 22 января 2026 г.
Смотрите другие материалы по этой тематике: Технологии, Хайтек и инновации
Установите трансляцию заголовков прессы на своем сайте
|
|
 |
Архив прессы
|
|
|
 |
Текущая пресса
 |
| |
22 января 2026 г.

|
|
Российская газета, 22 января 2026 г.
Экономист Кульбака: Главные лазейки для мошенников – не в нейросетях, а в низком уровне финансовой грамотности людей

|
21 января 2026 г.

|
|
E1.ru, Екатеринбург, 21 января 2026 г.
Екатеринбуржцы пожаловались на большие очереди в пунктах оформления ДТП

|
|
АвтоБизнесРевю, 21 января 2026 г.
За 2025 год продано почти 40 млн полисов Е-ОСАГО

|
|
УралБизнесКонсалтинг, Екатеринбург, 21 января 2026 г.
Свердловская область вошла в число лидеров по продажам электронного ОСАГО

|
|
Башинформ, Уфа, 21 января 2026 г.
В Башкирии в 2025 году продали 1 млн электронных ОСАГО

|
|
Деловая газета.Юг, Краснодар, 21 января 2026 г.
Краснодарский край в 2025 г. занял 3 место по продаже полисов е-ОСАГО

|
|
Коммерсантъ-Екатеринбург, 21 января 2026 г.
Свердловская область вошла в число лидеров по продажам е-ОСАГО в 2025 году

|
|
Газета.Ru, 21 января 2026 г.
Стало известно, из чего состоят переплаты по ипотеке, кроме ставки

|
|
АСН24.ру (Амурская служба новостей), Благовещенск, 21 января 2026 г.
С благовещенца, организовывавшего подставные ДТП, взыскали 220 тысяч рублей в пользу страховой компании

|
|
Урал56.Ру, Орск, 21 января 2026 г.
Провоцировали ДТП и получали выплаты: В Оренбурге расследовали уголовное дело в отношении автоподставщиков

|
|
Финмаркет, 21 января 2026 г.
Убытки страховщиков от стихийных бедствий в мире превысили $127 млрд в 2025 г.

|
|
Аргументы и факты-Тула, 21 января 2026 г.
Тульским водителям такси напомнили об обязательном страховании ОСГОП

|
|
Континент Сибирь, Новосибирск, 21 января 2026 г.
В Заксобрании призвали отменить повышение стоимости полиса ОСАГО в Новосибирской области

|
|
zakon.kz, 21 января 2026 г.
Автострахование в Казахстане: что изменится для водителей с 2026 года

|
|
ГТРК Новосибирск, 21 января 2026 г.
Новосибирские депутаты решили обратиться в Госдуму из-за удорожания полиса ОСАГО

|
|
Интерфакс, 21 января 2026 г.
Доля полисов е-ОСАГО в общем объеме проданных в 2025 году выросла на 6,5 п.п. до 73,5%

|
|
ABIREG.RU, Воронеж, 21 января 2026 г.
МТС-банк стал владельцем «РНКБ Страхование»

|
 Остальные материалы за 21 января 2026 г. |
 Самое главное
 Найти
: по изданию
, по теме
, за период
 Получать: на e-mail, на свой сайт
|
|
|
|
|
|