Pesquisas globais revelam um despertar coletivo contra os perigos da IA e algoritmos sociais, com a sociedade adotando posturas defensivas p...
Pesquisas globais revelam um despertar coletivo contra os perigos da IA e algoritmos sociais, com a sociedade adotando posturas defensivas para combater manipulações – mas os benefícios da tecnologia podem equilibrar essa equação?

*Por Marcelo Senise
Uma mudança silenciosa percorre a opinião pública: as pessoas estão deixando de aceitar passivamente o que veem nas telas. Pesquisas de institutos como Pew, Ipsos e Edelman mostram que cresce a desconfiança em relação à inteligência artificial e aos algoritmos de recomendação, e com ela emerge um comportamento mais cauteloso, quase imunológico. O público começa a desconfiar de conteúdos perfeitos demais, passa a verificar a origem do que viraliza, questiona o ritmo frenético do feed. O ceticismo, antes restrito a especialistas, ganhou as ruas.
Esse movimento tem razão de ser. A arquitetura das plataformas foi desenhada para otimizar atenção, não verdade. Algoritmos premiam o que é emocionalmente inflamável; microtargeting explora vulnerabilidades; padrões obscuros de interface empurram cliques; o FOMO governa. Some-se a isso a IA generativa, capaz de produzir textos, imagens e vozes com precisão alarmante. O resultado é um ecossistema onde manipulação não é exceção: é risco sistêmico. Deepfakes já derrubaram reputações em minutos, bots fabricam consenso, campanhas de desinformação testam discursos como quem testa anúncios.
A reação social tem sido proporcional ao incômodo. Em diferentes países, pesquisas apontam mais preocupação do que entusiasmo com a IA, especialmente quando o tema é política, segurança da informação e privacidade. Consumidores bloqueiam rastreadores, rejeitam recomendações suspeitas, pedem rótulos claros para conteúdos automatizados e penalizam marcas que brincam com a confiança. Eleitores demonstram resistência a mensagens hiperdirigidas que soam "psicológicas demais". Em resumo: a sociedade aprendeu a olhar duas vezes.
Isso não significa demonizar a tecnologia. Significa colocar limites. A mesma IA que cria armadilhas também pode ser chave de proteção. Ferramentas de detecção de deepfakes melhoram a cada semana; verificação de autenticidade por meio de assinaturas digitais e marcas d'água começa a ganhar corpo; sistemas de reputação de fontes e checagem automatizada já ajudam redações e tribunais. Algoritmos explicáveis reduzem assimetrias de informação; auditorias independentes expõem viés; design centrado no usuário corta os atalhos para a manipulação. Quando bem aplicada, a IA multiplica capacidade humana, não a sequestra.
O que falta é escala, transparência e compromisso. Precisamos de rótulos padrão para conteúdo sintetizado por IA; de relatórios públicos sobre como sistemas de recomendação priorizam conteúdo; de auditorias contínuas, não ocasionais; de controles simples, ao alcance de qualquer usuário. Educação midiática e informacional deve deixar de ser "complemento" e virar política pública: ler imagem, checar contexto, distinguir opinião de evidência, entender como o incentivo molda o feed. Privacidade por padrão, consentimento real, portabilidade de dados e interoperabilidade entre plataformas precisam sair do discurso e entrar na prática.
No nível individual, há defesas concretas e imediatas. Desative o autoplay, revise permissões, reduza notificações que sequestram atenção. Antes de compartilhar, pergunte: quem ganha com este post? Verifique a procedência, procure a fonte primária, espere alguns minutos — o tempo também é antídoto. Exija rotulagem clara de conteúdo gerado por IA e sinalize manipulações óbvias. Se o produto é gratuito, sua atenção é a moeda: trate-a como riqueza escassa.
Estamos, enfim, no ponto de virada. Pela primeira vez, a percepção coletiva alcança a sofisticação das ameaças. A sociedade entende os perigos e, antevendo a tentativa permanente de manipulação, ergue defesas. Agora é consolidar essa virada: tecnologia a serviço da autonomia, não da captura. A transparência precisa deixar de ser slogan e virar obrigação; a regulação, de promessa a enforcement; a educação, de campanha a cultura. Não aceite que códigos invisíveis decidam o que você pensa, sente e vota. Use a máquina, mas não seja usado por ela. Porque, no fim, a IA mais poderosa continua sendo a sua: a Inteligência Humana. Reivindique-a. Proteja-a. E faça dela o padrão que toda tecnologia deve respeitar.
*Marcelo Senise - Presidente do IRIA (Instituto Brasileiro para a Regulamentação da IA. Sociólogo e Marqueteiro Político, especialista em IA aplicada em Política.
*Por Marcelo Senise
Uma mudança silenciosa percorre a opinião pública: as pessoas estão deixando de aceitar passivamente o que veem nas telas. Pesquisas de institutos como Pew, Ipsos e Edelman mostram que cresce a desconfiança em relação à inteligência artificial e aos algoritmos de recomendação, e com ela emerge um comportamento mais cauteloso, quase imunológico. O público começa a desconfiar de conteúdos perfeitos demais, passa a verificar a origem do que viraliza, questiona o ritmo frenético do feed. O ceticismo, antes restrito a especialistas, ganhou as ruas.
Esse movimento tem razão de ser. A arquitetura das plataformas foi desenhada para otimizar atenção, não verdade. Algoritmos premiam o que é emocionalmente inflamável; microtargeting explora vulnerabilidades; padrões obscuros de interface empurram cliques; o FOMO governa. Some-se a isso a IA generativa, capaz de produzir textos, imagens e vozes com precisão alarmante. O resultado é um ecossistema onde manipulação não é exceção: é risco sistêmico. Deepfakes já derrubaram reputações em minutos, bots fabricam consenso, campanhas de desinformação testam discursos como quem testa anúncios.
A reação social tem sido proporcional ao incômodo. Em diferentes países, pesquisas apontam mais preocupação do que entusiasmo com a IA, especialmente quando o tema é política, segurança da informação e privacidade. Consumidores bloqueiam rastreadores, rejeitam recomendações suspeitas, pedem rótulos claros para conteúdos automatizados e penalizam marcas que brincam com a confiança. Eleitores demonstram resistência a mensagens hiperdirigidas que soam "psicológicas demais". Em resumo: a sociedade aprendeu a olhar duas vezes.
Isso não significa demonizar a tecnologia. Significa colocar limites. A mesma IA que cria armadilhas também pode ser chave de proteção. Ferramentas de detecção de deepfakes melhoram a cada semana; verificação de autenticidade por meio de assinaturas digitais e marcas d'água começa a ganhar corpo; sistemas de reputação de fontes e checagem automatizada já ajudam redações e tribunais. Algoritmos explicáveis reduzem assimetrias de informação; auditorias independentes expõem viés; design centrado no usuário corta os atalhos para a manipulação. Quando bem aplicada, a IA multiplica capacidade humana, não a sequestra.
O que falta é escala, transparência e compromisso. Precisamos de rótulos padrão para conteúdo sintetizado por IA; de relatórios públicos sobre como sistemas de recomendação priorizam conteúdo; de auditorias contínuas, não ocasionais; de controles simples, ao alcance de qualquer usuário. Educação midiática e informacional deve deixar de ser "complemento" e virar política pública: ler imagem, checar contexto, distinguir opinião de evidência, entender como o incentivo molda o feed. Privacidade por padrão, consentimento real, portabilidade de dados e interoperabilidade entre plataformas precisam sair do discurso e entrar na prática.
No nível individual, há defesas concretas e imediatas. Desative o autoplay, revise permissões, reduza notificações que sequestram atenção. Antes de compartilhar, pergunte: quem ganha com este post? Verifique a procedência, procure a fonte primária, espere alguns minutos — o tempo também é antídoto. Exija rotulagem clara de conteúdo gerado por IA e sinalize manipulações óbvias. Se o produto é gratuito, sua atenção é a moeda: trate-a como riqueza escassa.
Estamos, enfim, no ponto de virada. Pela primeira vez, a percepção coletiva alcança a sofisticação das ameaças. A sociedade entende os perigos e, antevendo a tentativa permanente de manipulação, ergue defesas. Agora é consolidar essa virada: tecnologia a serviço da autonomia, não da captura. A transparência precisa deixar de ser slogan e virar obrigação; a regulação, de promessa a enforcement; a educação, de campanha a cultura. Não aceite que códigos invisíveis decidam o que você pensa, sente e vota. Use a máquina, mas não seja usado por ela. Porque, no fim, a IA mais poderosa continua sendo a sua: a Inteligência Humana. Reivindique-a. Proteja-a. E faça dela o padrão que toda tecnologia deve respeitar.
*Marcelo Senise - Presidente do IRIA (Instituto Brasileiro para a Regulamentação da IA. Sociólogo e Marqueteiro Político, especialista em IA aplicada em Política.
Nenhum comentário
Obrigado por contribuir com seu comentário! Ficamos felizes por ser nosso leitor! Seja muito bem vindo! Acompanhe sempre as nossas notícias! A equipe Tribuna do Brasil agradece!