Интерпретируемость моделей ИИ: как, зачем и насколько это реально? Открытый подкаст AI Security. Выпуск #3

В открытом подкасте AI Security Lab исследователи безопасности генеративного ИИ обсудят проблему интерпретируемости моделей

ИТ и интернет 16+

Соскучились по нашим подкастам? Самое время вновь встретиться и обсудить проблемы безопасности ИИ 

На этот раз мы поговорим об Интерпретируемости моделей ИИ: как, зачем и насколько это реально?

Обсудим вызовы объяснимости моделей ИИ, рассмотрим актуальные исследования в области интерпретируемости классических моделей и LLM от ведущих команд и вендоров.

Когда: 27 июля, 11:00 (МСК)

Приглашённые гости:

  • Максим Костриця – DS Reseacher в Raft, магистр ФКН ВШЭ
  • Сабрина Садиех – исследователь XAI, выпускница ПетрГУ
  • Модератор: Тимур Низамов, разработчик LLAMATOR, студент AI Talent Hub

Подписывайтесь на канал AI Security Lab, чтобы оставаться в курсе мероприятий и новостей безопасности ИИ: https://t.me/aisecuritylab

Интерпретируемость моделей ИИ: как, зачем и насколько это реально? Открытый подкаст AI Security. Выпуск #3
5 дней назад
27 июля 11:00–12:00

Событие пройдет онлайн

Уже есть билет
Ссылка на онлайн-событие рассылается за час до его начала.
Получить ссылку

Поделиться:

Связь с организатором

На этот адрес придёт ответ от организатора.

По номеру с вами свяжется организатор

Подпишитесь на рассылку организатора

Возврат билета

Если вы хотите вернуть билеты, вы можете сделать это по ссылке из письма с билетами или оформить запрос организатору в вашем  личном кабинете.

Подробнее о возврате билетов