Download on the App Store
1 июля, 10:58

Опасность дипфейков: мошенничество и недоверие

⏺Искусственный интеллект позволяет создавать генеративный контент — видео, аудио и тексты, похожие на настоящие записи. Уже сегодня дипфейки используют для манипулирования политическими процессами и обществом, создания фальшивых новостей, мошенничества.   Так как явление быстро развивается и его трудно контролировать, государство намерено объединить усилия с компаниями, чтобы противостоять новому типу недостоверной информации.     Нужны технологии, которые позволят любому человеку максимально просто при помощи камеры мобильника выявлять дипфейки, заявил зампредседателя комитета ГД по инфорполитике Антон Горелкин на XII Петербургском международном юридическом форуме.    Подписаться на «Парламентскую газету»
Парламентская газета
Парламентская газета
⏺Искусственный интеллект позволяет создавать генеративный контент — видео, аудио и тексты, похожие на настоящие записи. Уже сегодня дипфейки используют для манипулирования политическими процессами и обществом, создания фальшивых новостей, мошенничества. Так как явление быстро развивается и его трудно контролировать, государство намерено объединить усилия с компаниями, чтобы противостоять новому типу недостоверной информации. Нужны технологии, которые позволят любому человеку максимально просто при помощи камеры мобильника выявлять дипфейки, заявил зампредседателя комитета ГД по инфорполитике Антон Горелкин на XII Петербургском международном юридическом форуме. Подписаться на «Парламентскую газету»
Амур.Инфо
Амур.Инфо
Видели новый фильм с амурским губернатором в главной роли? И никто не видел Это, конечно, шуточное видео. Но вообще искусственный интеллект уже и не на такое способен. Современные технологии позволяют создавать видео, аудио и тексты, крайне похожие на настоящие записи. Правовые аспекты регулирования дипфейков и подделок голоса обсудили на Петербургском международном юридическом форуме ПМЮФ . Гендиректор АНО «Диалог Регионы» Владимир Табак представил результаты социсследований на эту тему. Как оказалось, 50 % опрошенных россиян считают, что распространение дипфейков опасно, потому что они дезинформируют, вводят в заблуждение, заставляют принимать неверные решения. А вы способны отличить подложные видео и аудио от реальных?
Мы нсо  Чем могут быть опасны дипфейки?   С развитием искусственного интеллекта всё чаще создаются фейковые видео, аудио, тексты похожие на настоящие.    Среди 3700 пользователей соцсетей провели опрос, который показал: 50% россиян считают такие дипфейки опасными – они вводят в заблуждение, заставляют принимать неверные решения и т.д.  Часто этими приемами пользуются телефонные мошенники – подделывают голоса.  А вы бы смогли отличить настоящий голос от созданного ИИ?    Мы нсо @
Мониторинг 54 Новосибирская область
Мониторинг 54 Новосибирская область
Мы нсо Чем могут быть опасны дипфейки? С развитием искусственного интеллекта всё чаще создаются фейковые видео, аудио, тексты похожие на настоящие. Среди 3700 пользователей соцсетей провели опрос, который показал: 50% россиян считают такие дипфейки опасными – они вводят в заблуждение, заставляют принимать неверные решения и т.д. Часто этими приемами пользуются телефонные мошенники – подделывают голоса. А вы бы смогли отличить настоящий голос от созданного ИИ? Мы нсо @
Медийная истерика, подкрепленная бешеными вложениями, инвестиционный пузырь, который рано или поздно лопнет. Так ситуацию вокруг применения искусственного интеллекта  ИИ  в мире видит член Совета по правам человека при Президенте России, ведущий специалист в сфере информационных технологий Игорь Ашманов.   Впрочем, и перспектив в работе с ИИ он не отметает: технологии позволят нашей стране в будущем противостоять любому противнику. Но для этого их надо не только пестовать, но и грамотно регулировать, а пока в российских законах нейросети почти не упоминаются. Над изменением ситуации работают парламентарии.     В каких сферах ИИ послужит россиянам уже совсем скоро, узнала редакция «Парламентской газеты».   Подписаться на «Парламентскую газету»
Парламентская газета
Парламентская газета
Медийная истерика, подкрепленная бешеными вложениями, инвестиционный пузырь, который рано или поздно лопнет. Так ситуацию вокруг применения искусственного интеллекта ИИ в мире видит член Совета по правам человека при Президенте России, ведущий специалист в сфере информационных технологий Игорь Ашманов. Впрочем, и перспектив в работе с ИИ он не отметает: технологии позволят нашей стране в будущем противостоять любому противнику. Но для этого их надо не только пестовать, но и грамотно регулировать, а пока в российских законах нейросети почти не упоминаются. Над изменением ситуации работают парламентарии. В каких сферах ИИ послужит россиянам уже совсем скоро, узнала редакция «Парламентской газеты». Подписаться на «Парламентскую газету»
Искусственный интеллект научился копировать внешность, мимику, жесты и даже голоса людей.   Технологию успешно применяют в кинематографе и других направлениях искусства. Однако все чаще в своих целях дипфейки используют мошенники. Поэтому важно уметь распознавать цифровых двойников.   По результатам исследования, знают о таком явлении или что-то о нем слышали меньше половины россиян, а каждый пятый из них неправильно понимает его обозначение.   Такие данные привел гендиректор АНО «Диалог Регионы» Владимир Табак, выступая на сессии ПМЮФ о правовом регулировании дипфейков.    А у вас получится найти «подделку» среди фотографий знаменитостей? Пишите свои варианты в комментариях
Тундра-сюндра
Тундра-сюндра
Искусственный интеллект научился копировать внешность, мимику, жесты и даже голоса людей. Технологию успешно применяют в кинематографе и других направлениях искусства. Однако все чаще в своих целях дипфейки используют мошенники. Поэтому важно уметь распознавать цифровых двойников. По результатам исследования, знают о таком явлении или что-то о нем слышали меньше половины россиян, а каждый пятый из них неправильно понимает его обозначение. Такие данные привел гендиректор АНО «Диалог Регионы» Владимир Табак, выступая на сессии ПМЮФ о правовом регулировании дипфейков. А у вас получится найти «подделку» среди фотографий знаменитостей? Пишите свои варианты в комментариях
С развитием искусственного интеллекта выросло количество дипфейков    Наш мир стремительно развивается – общедоступно используется искусственный интеллект и современные технологии. С их помощью все чаще создаются фейковые видео, аудио и тексты, которые максимально похожи на настоящие.    Гендиректор АНО «Диалог» и АНО «Диалог Регионы» Владимир Табак принял участие в сессии ПМЮФ «Украденная личность. Правовые аспекты регулирования дипфейков и подделок голоса». На мероприятии он предоставил результаты опроса по этой теме:     Почти половина опрошенных знает о дипфейках   50% считают их распространение опасным   54% отмечают важность их регулирование на законодательном уровне    А вы когда-нибудь сталкивались с дипфейками?
Ставропольский дворик
Ставропольский дворик
С развитием искусственного интеллекта выросло количество дипфейков Наш мир стремительно развивается – общедоступно используется искусственный интеллект и современные технологии. С их помощью все чаще создаются фейковые видео, аудио и тексты, которые максимально похожи на настоящие. Гендиректор АНО «Диалог» и АНО «Диалог Регионы» Владимир Табак принял участие в сессии ПМЮФ «Украденная личность. Правовые аспекты регулирования дипфейков и подделок голоса». На мероприятии он предоставил результаты опроса по этой теме: Почти половина опрошенных знает о дипфейках 50% считают их распространение опасным 54% отмечают важность их регулирование на законодательном уровне А вы когда-нибудь сталкивались с дипфейками?
Loading indicator gif