Зарегистрироваться
Как протестировать безопасность AI-приложений? Открытый подкаст AI Security. Выпуск #2

В открытом подкасте AI Security Lab исследователи безопасности генеративного ИИ обсудят риски использования LLM, методы проверки приложений промпт-инъекциями, которые могут привести к генерации токсичного контента, утечке системных инструкций, введению в заблуждение и отказу в обслуживании. Приходите, чтобы узнать, как протестировать разными методами приложения с LLM и VLM

ИТ и интернет 16+

Впереди нас ждут насыщенные выходные, приглашаем на новый выпуск открытого подкаста AI Security Lab Университета ИТМО и Raft, в котором разработчики инструмента LLAMATOR и выпускники курса лаборатории расскажут о методах тестирования безопасности ИИ-приложений

Как протестировать безопасность AI-приложений?

Ответят 15 июня 15:00 – 16:00 МСК (онлайн) магистранты AI Talent Hub: 
Никита Иванов и Роман Неронов – разработчики LLAMATOR
Эдуард Поляков и Владислав Славкин – исследователи промпт-атак LLM на генерацию токсичного контента и DoS
Илья Тамбовцев и Святослав Иванов – разработчики тестов VLM на галлюцинации и состязательные атаки

Обсудим методы проверки приложений промпт-инъекциями, которые могут привести к генерации токсичного контента, утечке системных инструкций, введению в заблуждение и отказу в обслуживании

Подписывайтесь на канал AI Security Lab, чтобы оставаться в курсе мероприятий и новостей безопасности ИИ: https://t.me/aisecuritylab

Поделиться:

Событие пройдет онлайн

Уже есть билет
Ссылка на онлайн-событие рассылается за час до его начала.
Получить ссылку

Поделиться:

Связь с организатором

На этот адрес придёт ответ от организатора.

По номеру с вами свяжется организатор

Подпишитесь на рассылку организатора

Возврат билета

Если вы хотите вернуть билеты, вы можете сделать это по ссылке из письма с билетами или оформить запрос организатору в вашем  личном кабинете.

Подробнее о возврате билетов