-
Регистрация участников
апр.. 23
-
Торжественное открытие
апр.. 23
-
Приветственное слово
апр.. 23
-
Вводная дискуссия | Совет CISO
апр.. 23
-
Диалог с регулятором
апр.. 23
-
Стратегия обеспечения непрерывности бизнеса в условиях растущих киберугроз
Виктория Гольцова, эксперт, RTCloudапр.. 23
-
Как повышать культуру кибербезопасности?
Руслан Бугаев, руководитель отдела развития бизнеса, Secure-Tапр.. 23
-
DNS как инструмент раннего выявления киберугроз в корпоративной инфраструктуре
Павел Блинов, руководитель отдела приоритетных проектов, SkyDNSапр.. 23
-
Управление уязвимостями конфигураций: импортозамещаем Nessus с умом
Кирилл Евтушенко, генеральный директор, Каучапр.. 23
-
От Wazuh до Приказа №117: реальная стоимость «бесплатного» SOC и когда пора звать внешнюю экспертизу.
Дмитрий Елисеев, Кредо-Сапр.. 23
Мастер- класс «Безопасный ИИ: две стороны одной цифровой медали»
Правительственная комиссия РФ, ФИИ РУДН, кафедра прикладного ИИ ФИИ РУДН
Безопасность ИИ обычно включает несколько ключевых направлений:
- Надёжность (robustness): Создание систем, устойчивых к сбоям, атакам (например, adversarial examples — специально подобранным входным данным, которые обманывают модель) и неожиданным ситуациям.
- Мониторинг и контроль: Методы реального времени для наблюдения за поведением ИИ, выявления аномалий и сохранения человеческого надзора.
- Выравнивание (alignment): Обеспечение того, чтобы цели и поведение ИИ соответствовали человеческим ценностям и намерениям, а не приводили к вредным или непредвиденным результатам.
- Предотвращение злоупотреблений: Защита от использования ИИ в плохих целях — генерация дипфейков, мошенничество, кибератаки, помощь в создании оружия и т.д.
- Риски потери контроля: Более спекулятивные, но серьёзные сценарии, когда продвинутый ИИ может выйти из-под контроля разработчиков или преследовать цели, не совпадающие с человеческими.
Будут затронуты такие категории рисков как:
Риски часто делят на три большие группы:
1. Злоупотребление — ИИ помогает в мошенничестве, дезинформации, биотерроризме или автоматизированных атаках.
2. Сбои — галлюцинации (выдумывание фактов), ненадёжность в критических системах, непредсказуемое поведение.
3. Системные риски — влияние на рынок труда, эрозия человеческой автономии, усиление предубеждений в масштабах общества.
На мастер классе предлагается провести мини-разбор кейсов по безопасному ИИ и прикладному использованию данного направления в различных отраслях.
Модератор:
Людмила Гонтарь
Руководитель проектного офиса «Аэродинамика»
Правительственной комиссии России
Тренеры:
Черницкая Елизавета Евгеньевна –
председатель Совета молодых ученых РУДН, специалист ФИИ РУДН
Клюкин Александр
Викторович – специалист ФИИ РУДН.