28 июня, 09:49

Этические принципы использования ИИ в НИУ ВШЭ

В Вышке разработали этические принципы использования ИИ  Высшая школа экономики разработала и утвердила Декларацию этических принципов использования искусственного интеллекта. НИУ ВШЭ считает ИИ мощным инструментом, способным обогатить образовательный и научный процессы, и призывает к его осмысленному и критичному использованию.  В документе прописаны ключевые принципы взаимодействия с ИИ. Среди них:  приоритет человеческого общения;  прозрачность;  конфиденциальность и защита интеллектуальных прав;  исключение предвзятости и дискриминации;  ответственное отношение к ИИ и т.д.  Декларация была утверждена на заседании Ученого совета университета. В НИУ ВШЭ надеются, что это станет примером для других образовательных учреждений в принятии похожих документов
Высшая школа экономики
Высшая школа экономики
В Вышке разработали этические принципы использования ИИ Высшая школа экономики разработала и утвердила Декларацию этических принципов использования искусственного интеллекта. НИУ ВШЭ считает ИИ мощным инструментом, способным обогатить образовательный и научный процессы, и призывает к его осмысленному и критичному использованию. В документе прописаны ключевые принципы взаимодействия с ИИ. Среди них: приоритет человеческого общения; прозрачность; конфиденциальность и защита интеллектуальных прав; исключение предвзятости и дискриминации; ответственное отношение к ИИ и т.д. Декларация была утверждена на заседании Ученого совета университета. В НИУ ВШЭ надеются, что это станет примером для других образовательных учреждений в принятии похожих документов
Искусственный интеллект не заменит человека, по крайней мере в плане кибербезопасности. Об этом рассказал вице-президент по кибербезопасности Сбера Сергей Лебедь на GigaConf. По его словам, сейчас видится три варианта построения процессов кибербезопасности с использованием технологий искусственного интеллекта:  • Традиционные процессы, сконструированные людьми: ИИ-агенты будут исполнять их и сообщать об отклонениях в их выполнении; • ИИ самостоятельно конструирует новые процессы, человек берет на себя роль конструктора «мозга» ИИ; • Человек декларативно ставит задачу и оценивает результативность, ИИ-система сама от и до определяет, как будет решена задача.  При этом Сергей подчеркнул: Ключевым умением AI должно быть самообучение и переход от процесса обработки данных к применению знаний. Это значит, что AI должен уметь получать опыт, обобщать его, познавать и понимать. То есть по сути быть мыслящей сущностью, самостоятельно принимающей верные решения и совершающей верные действия в каждом конкретном случае    Не баг, а фича
Не баг, а фича
Не баг, а фича
Искусственный интеллект не заменит человека, по крайней мере в плане кибербезопасности. Об этом рассказал вице-президент по кибербезопасности Сбера Сергей Лебедь на GigaConf. По его словам, сейчас видится три варианта построения процессов кибербезопасности с использованием технологий искусственного интеллекта: • Традиционные процессы, сконструированные людьми: ИИ-агенты будут исполнять их и сообщать об отклонениях в их выполнении; • ИИ самостоятельно конструирует новые процессы, человек берет на себя роль конструктора «мозга» ИИ; • Человек декларативно ставит задачу и оценивает результативность, ИИ-система сама от и до определяет, как будет решена задача. При этом Сергей подчеркнул: Ключевым умением AI должно быть самообучение и переход от процесса обработки данных к применению знаний. Это значит, что AI должен уметь получать опыт, обобщать его, познавать и понимать. То есть по сути быть мыслящей сущностью, самостоятельно принимающей верные решения и совершающей верные действия в каждом конкретном случае Не баг, а фича
Казарин в цифровом эфире
Казарин в цифровом эфире
Развитие ИИ создаст новые профессии в сфере кибербеза При обсуждении темы искусственного интеллекта нередко можно услышать опасения относительно того, как его использование повлияет на рынок труда. ‍ Позитивный прогноз представил Сбер, взяв в качестве примера сферу кибербезопасности: ИИ не заменит человека, а придаст импульс появлению новых профессий. В их числе: оператор цифрового аватара, тренер моделей, конструктор специализированных ИИ-агентов, специалист по знаниям. Банк поделился статистикой: ежедневно в Сбере обрабатывается порядка 500 млрд событий в сфере кибербезопасности — в 10 раз больше, чем 4 года назад. За это же время в 2,5 раза выросло ежемесячное количество транзакций. В условиях такого увеличения объёмов работы и роста угроз, использование ИИ-решений жизненно необходимо для обеспечения безопасности. Также Сбер обозначил несколько вариантов построения процессов кибербезопасности с использованием технологий ИИ: Традиционные процессы, сконструированные людьми, — ИИ-агенты будут исполнять их и сообщать об отклонениях в их выполнении ИИ самостоятельно конструирует новые процессы, человек берёт на себя роль конструктора «мозга» решения Наиболее футуристический вариант: человек ставит задачу и оценивает результативность, система сама от и до определяет, как будет она будет решена При этом ключевым умением ИИ должно быть самообучение и переход от процесса обработки данных к применению знаний.
Пул N3
Пул N3
Робот не может причинить вреда человеку Искусственный интеллект не должен заменять живое взаимодействие людей. НИУ ВШЭ разработала этические принципы использования искусственного интеллекта. Получилось не 3 пункта, как в законах робототехники Айзека Азимова, а девять. Среди них: Приоритет человеческого общения: ИИ не должен заменять живое взаимодействие. Напротив, его использование должно способствовать укреплению межличностного общения и совместной работы. Информированное использование: руководство университета обязуется обучать сотрудников и студентов принципам работы ИИ и его возможностям. Академическая честность: использование ИИ как дополнения, а не замены естественного интеллекта, самостоятельность в выполнении работ являются основой академической честности. Прозрачность: сотрудники и студенты обязаны указывать, где и как использовался ИИ, особенно в научных и образовательных проектах. Это также касается программ, имитирующих человеческое общение. Конфиденциальность и защита интеллектуальных прав: ИИ должен обеспечивать защиту персональных данных и интеллектуальной собственности. Недопустимо вводить конфиденциальную информацию в ИИ-системы без соответствующего разрешения. Справедливая доступность: все участники образовательного процесса должны иметь равный доступ к ИИ. Нельзя требовать использования технологий ИИ, которые влекут за собой значительные финансовые затраты, если это не обеспечено всем студентам и сотрудникам. Разумные ограничения: важно осознавать риски и последствия использования ИИ. Университет оставляет за собой право вводить ограничения на разработку и использование ИИ, если это необходимо для защиты интересов университета и его сообщества.
AI не искоренит профессии, а лишь увеличит их количество.  Такой прогноз на технологической конференции GigaConf дал вице-президент Сбера по кибербезопасности Сергей Лебедь. Он перечислил несколько возможных профессий будущего: оператор AI-аватара, конструктор моделей, конструктор агентов, специалист по знаниями.  По мнению Лебедя, в ближайшем будущем возможны три варианта построения процессов кибербезопасности с использованием технологий AI.    Люди во главе: AI-агенты продолжат лишь исполнять задачи и сообщать об ошибках;   AI самостоятельно конструирует новые процессы, но человек выступает в роли конструктора «мозга» AI;  Вкалывают роботы: человек лишь ставит задачу и оценивает результативность, нейросеть полностью отвечает за процесс и пути решения.  Как отметил Лебедь, при любом раскладе ключевым умением AI является самообучение и переход от процесса обработки данных к их применению, самостоятельно мыслить, принимать верные решения и действовать сообразно этому.
TrendWatching
TrendWatching
AI не искоренит профессии, а лишь увеличит их количество. Такой прогноз на технологической конференции GigaConf дал вице-президент Сбера по кибербезопасности Сергей Лебедь. Он перечислил несколько возможных профессий будущего: оператор AI-аватара, конструктор моделей, конструктор агентов, специалист по знаниями. По мнению Лебедя, в ближайшем будущем возможны три варианта построения процессов кибербезопасности с использованием технологий AI. Люди во главе: AI-агенты продолжат лишь исполнять задачи и сообщать об ошибках; AI самостоятельно конструирует новые процессы, но человек выступает в роли конструктора «мозга» AI; Вкалывают роботы: человек лишь ставит задачу и оценивает результативность, нейросеть полностью отвечает за процесс и пути решения. Как отметил Лебедь, при любом раскладе ключевым умением AI является самообучение и переход от процесса обработки данных к их применению, самостоятельно мыслить, принимать верные решения и действовать сообразно этому.
«Лично я не понимаю людей, которые работают в ИТ-сфере и всерьёз рассуждают о разработке единственного истинного искусственного интеллекта», — заявил Марк Цукерберг.  По его мнению, ИИ много не бывает, даже его UGC-версий, но чтобы рынок развивался, нужна открытость  vc.ru/ai/1265016
vc.ru
vc.ru
«Лично я не понимаю людей, которые работают в ИТ-сфере и всерьёз рассуждают о разработке единственного истинного искусственного интеллекта», — заявил Марк Цукерберг. По его мнению, ИИ много не бывает, даже его UGC-версий, но чтобы рынок развивался, нужна открытость vc.ru/ai/1265016
Loading indicator gif