Inteligência Artificial, transparência e explicabilidade em LLMs: uma análise de outputs do ChatGPT, DeepSeek e Maritaca IA
Inteligência Artificial; Transparência; Explicabilidade; LLMs.
O projeto investiga como os modelos de linguagem ChatGPT, DeepSeek e Maritaca IA constroem discursivamente explicações sobre governança de dados, transparência digital e privacidade, em um ambiente marcado por opacidade técnica e crescente centralidade da IA generativa. A pesquisa combina uma etapa bibliográfica, voltada ao debate sobre tecnopolítica, produção de sentidos e explicabilidade, e uma etapa empírica composta por entrevistas estruturadas na técnica EAFF, aplicadas aos LLMs por meio de engenharia de prompts. O corpus resultante é analisado em abordagem quanti-qualitativa: quantitativamente, via análises lexicais no IRaMuTeQ; qualitativamente, por meio da análise de conteúdo. O objetivo é identificar padrões discursivos, tensões, estratégias de autoridade e zonas de silêncio nos outputs dos modelos, contribuindo para discussões sobre transparência, regulação e responsabilidade social da IA generativa.