O avanço recente da Inteligência Artificial (IA), impulsionado pela adoção de modelos generativos, agentes autônomos e pipelines complexos de dados, tem introduzido uma nova classe de riscos em sistemas computacionais modernos. Diferentemente de sistemas tradicionais, aplicações baseadas em IA apresentam superfícies de exposição definidas, em larga escala, pela coleta e pelo processamento de dados, e por complexas influências que esses dados exercem em processos de treinamento e inferência.
Nesse contexto, estudos recentes evidenciam que sistemas baseados em IA estão sujeitos a múltiplas classes de ataques, incluindo envenenamento de dados, evasão, inserção de backdoors, extração de modelos e inferência de informações sensíveis. No contexto de IA generativa, emergem vetores específicos como prompt injection, jailbreak, prompt leakage e ataques a modelos multimodais e sistemas multiagentes.
Diante desse cenário, o WCIA se propõe a reunir pesquisadores e profissionais para discutir fundamentos, métodos e técnicas experimentais voltados à análise, exploração e mitigação dessas vulnerabilidades, com ênfase em avaliação empírica, reprodutibilidade e cenários realistas.
O WCIA tem como objetivos: (i) fomentar a pesquisa em aspectos de segurança e privacidade em IA; (ii) promover a avaliação experimental de técnicas de ataque e defesa, com foco em cenários realistas; (iii) estimular a colaboração entre academia e indústria; e (iv) promover discussões sobre desafios, oportunidades e tendências em segurança e privacidade em Inteligência Artificial.



