Pesquisas globais revelam um despertar coletivo contra os perigos da IA e algoritmos sociais, com a sociedade adotando posturas defensivas p...
Pesquisas globais revelam um despertar coletivo contra os perigos da IA e algoritmos sociais, com a sociedade adotando posturas defensivas para combater manipulações – mas os benefícios da tecnologia podem equilibrar essa equação?

*Por Marcelo Senise
Uma mudança silenciosa percorre a opinião pública: as pessoas estão deixando de aceitar passivamente o que veem nas telas. Pesquisas de institutos como Pew, Ipsos e Edelman mostram que cresce a desconfiança em relação à inteligência artificial e aos algoritmos de recomendação, e com ela emerge um comportamento mais cauteloso, quase imunológico. O público começa a desconfiar de conteúdos perfeitos demais, passa a verificar a origem do que viraliza, questiona o ritmo frenético do feed. O ceticismo, antes restrito a especialistas, ganhou as ruas.
Esse movimento tem razão de ser. A arquitetura das plataformas foi desenhada para otimizar atenção, não verdade. Algoritmos premiam o que é emocionalmente inflamável; microtargeting explora vulnerabilidades; padrões obscuros de interface empurram cliques; o FOMO governa. Some-se a isso a IA generativa, capaz de produzir textos, imagens e vozes com precisão alarmante. O resultado é um ecossistema onde manipulação não é exceção: é risco sistêmico. Deepfakes já derrubaram reputações em minutos, bots fabricam consenso, campanhas de desinformação testam discursos como quem testa anúncios.
A reação social tem sido proporcional ao incômodo. Em diferentes países, pesquisas apontam mais preocupação do que entusiasmo com a IA, especialmente quando o tema é política, segurança da informação e privacidade. Consumidores bloqueiam rastreadores, rejeitam recomendações suspeitas, pedem rótulos claros para conteúdos automatizados e penalizam marcas que brincam com a confiança. Eleitores demonstram resistência a mensagens hiperdirigidas que soam "psicológicas demais". Em resumo: a sociedade aprendeu a olhar duas vezes.
Isso não significa demonizar a tecnologia. Significa colocar limites. A mesma IA que cria armadilhas também pode ser chave de proteção. Ferramentas de detecção de deepfakes melhoram a cada semana; verificação de autenticidade por meio de assinaturas digitais e marcas d'água começa a ganhar corpo; sistemas de reputação de fontes e checagem automatizada já ajudam redações e tribunais. Algoritmos explicáveis reduzem assimetrias de informação; auditorias independentes expõem viés; design centrado no usuário corta os atalhos para a manipulação. Quando bem aplicada, a IA multiplica capacidade humana, não a sequestra.
O que falta é escala, transparência e compromisso. Precisamos de rótulos padrão para conteúdo sintetizado por IA; de relatórios públicos sobre como sistemas de recomendação priorizam conteúdo; de auditorias contínuas, não ocasionais; de controles simples, ao alcance de qualquer usuário. Educação midiática e informacional deve deixar de ser "complemento" e virar política pública: ler imagem, checar contexto, distinguir opinião de evidência, entender como o incentivo molda o feed. Privacidade por padrão, consentimento real, portabilidade de dados e interoperabilidade entre plataformas precisam sair do discurso e entrar na prática.
No nível individual, há defesas concretas e imediatas. Desative o autoplay, revise permissões, reduza notificações que sequestram atenção. Antes de compartilhar, pergunte: quem ganha com este post? Verifique a procedência, procure a fonte primária, espere alguns minutos — o tempo também é antídoto. Exija rotulagem clara de conteúdo gerado por IA e sinalize manipulações óbvias. Se o produto é gratuito, sua atenção é a moeda: trate-a como riqueza escassa.
Estamos, enfim, no ponto de virada. Pela primeira vez, a percepção coletiva alcança a sofisticação das ameaças. A sociedade entende os perigos e, antevendo a tentativa permanente de manipulação, ergue defesas. Agora é consolidar essa virada: tecnologia a serviço da autonomia, não da captura. A transparência precisa deixar de ser slogan e virar obrigação; a regulação, de promessa a enforcement; a educação, de campanha a cultura. Não aceite que códigos invisíveis decidam o que você pensa, sente e vota. Use a máquina, mas não seja usado por ela. Porque, no fim, a IA mais poderosa continua sendo a sua: a Inteligência Humana. Reivindique-a. Proteja-a. E faça dela o padrão que toda tecnologia deve respeitar.
*Marcelo Senise - Presidente do IRIA (Instituto Brasileiro para a Regulamentação da IA. Sociólogo e Marqueteiro Político, especialista em IA aplicada em Política.
*Por Marcelo Senise
Uma mudança silenciosa percorre a opinião pública: as pessoas estão deixando de aceitar passivamente o que veem nas telas. Pesquisas de institutos como Pew, Ipsos e Edelman mostram que cresce a desconfiança em relação à inteligência artificial e aos algoritmos de recomendação, e com ela emerge um comportamento mais cauteloso, quase imunológico. O público começa a desconfiar de conteúdos perfeitos demais, passa a verificar a origem do que viraliza, questiona o ritmo frenético do feed. O ceticismo, antes restrito a especialistas, ganhou as ruas.
Esse movimento tem razão de ser. A arquitetura das plataformas foi desenhada para otimizar atenção, não verdade. Algoritmos premiam o que é emocionalmente inflamável; microtargeting explora vulnerabilidades; padrões obscuros de interface empurram cliques; o FOMO governa. Some-se a isso a IA generativa, capaz de produzir textos, imagens e vozes com precisão alarmante. O resultado é um ecossistema onde manipulação não é exceção: é risco sistêmico. Deepfakes já derrubaram reputações em minutos, bots fabricam consenso, campanhas de desinformação testam discursos como quem testa anúncios.
A reação social tem sido proporcional ao incômodo. Em diferentes países, pesquisas apontam mais preocupação do que entusiasmo com a IA, especialmente quando o tema é política, segurança da informação e privacidade. Consumidores bloqueiam rastreadores, rejeitam recomendações suspeitas, pedem rótulos claros para conteúdos automatizados e penalizam marcas que brincam com a confiança. Eleitores demonstram resistência a mensagens hiperdirigidas que soam "psicológicas demais". Em resumo: a sociedade aprendeu a olhar duas vezes.
Isso não significa demonizar a tecnologia. Significa colocar limites. A mesma IA que cria armadilhas também pode ser chave de proteção. Ferramentas de detecção de deepfakes melhoram a cada semana; verificação de autenticidade por meio de assinaturas digitais e marcas d'água começa a ganhar corpo; sistemas de reputação de fontes e checagem automatizada já ajudam redações e tribunais. Algoritmos explicáveis reduzem assimetrias de informação; auditorias independentes expõem viés; design centrado no usuário corta os atalhos para a manipulação. Quando bem aplicada, a IA multiplica capacidade humana, não a sequestra.
O que falta é escala, transparência e compromisso. Precisamos de rótulos padrão para conteúdo sintetizado por IA; de relatórios públicos sobre como sistemas de recomendação priorizam conteúdo; de auditorias contínuas, não ocasionais; de controles simples, ao alcance de qualquer usuário. Educação midiática e informacional deve deixar de ser "complemento" e virar política pública: ler imagem, checar contexto, distinguir opinião de evidência, entender como o incentivo molda o feed. Privacidade por padrão, consentimento real, portabilidade de dados e interoperabilidade entre plataformas precisam sair do discurso e entrar na prática.
No nível individual, há defesas concretas e imediatas. Desative o autoplay, revise permissões, reduza notificações que sequestram atenção. Antes de compartilhar, pergunte: quem ganha com este post? Verifique a procedência, procure a fonte primária, espere alguns minutos — o tempo também é antídoto. Exija rotulagem clara de conteúdo gerado por IA e sinalize manipulações óbvias. Se o produto é gratuito, sua atenção é a moeda: trate-a como riqueza escassa.
Estamos, enfim, no ponto de virada. Pela primeira vez, a percepção coletiva alcança a sofisticação das ameaças. A sociedade entende os perigos e, antevendo a tentativa permanente de manipulação, ergue defesas. Agora é consolidar essa virada: tecnologia a serviço da autonomia, não da captura. A transparência precisa deixar de ser slogan e virar obrigação; a regulação, de promessa a enforcement; a educação, de campanha a cultura. Não aceite que códigos invisíveis decidam o que você pensa, sente e vota. Use a máquina, mas não seja usado por ela. Porque, no fim, a IA mais poderosa continua sendo a sua: a Inteligência Humana. Reivindique-a. Proteja-a. E faça dela o padrão que toda tecnologia deve respeitar.
*Marcelo Senise - Presidente do IRIA (Instituto Brasileiro para a Regulamentação da IA. Sociólogo e Marqueteiro Político, especialista em IA aplicada em Política.
Nenhum comentário