Nas últimas duas décadas, a tecnologia da informação contribuiu para a transformação das formas de comunicação, consumo e organização social. Atualmente, captar e manter a atenção tornou-se uma das ‘moedas’ mais valiosas do mundo digital.
Redes sociais, serviços de streaming, jogos online e mecanismos de recomendação seguem uma lógica simples: reduzir o esforço do utilizador e aumentar o tempo de permanência e interação.
No entanto, a nossa capacidade de atenção é limitada. Estudos em psicologia e neurociências indicam que a concentração média numa tarefa – ou atenção sustentada – é de cerca de 10 a 20 minutos, enquanto, no ambiente digital, a atenção seletiva – a capacidade de focar num estímulo específico e ignorar as distrações ao redor – pode dispersar-se em menos de um minuto.
Para contornar essas limitações, as empresas de tecnologia investem em algoritmos cada vez mais complexos, criados para reconhecer as nossas preferências e oferecer conteúdos personalizados.
Vídeos curtos, mensagens de texto concisas, emojis, polémicas virais, estímulo às reações em vez de produção original, fofocas e feeds automáticos são algumas das estratégias usadas para prender a nossa atenção. Enquanto o like, o número de seguidores, os comentários positivos, o fluxo de informações e as recompensas intermitentes ativam o sistema de recompensa do cérebro, mantendo-nos conectados por mais tempo.
Em 2024, segundo dados da International Telecommunication Union das Nações Unidas, da GSMA Intelligence e do Eurostat, as pessoas passaram em média 6h40min por dia online, seja a navegar na internet, a usar redes sociais ou a consumir outros conteúdos digitais.
Quanto mais eficazes são essas plataformas em capturar a nossa atenção, maior o lucro que geram – e mais influência exercem sobre o que vemos, ouvimos, pensamos e sentimos.
Esta dinâmica é conhecida como a ‘economia da atenção’, ou seja, num mundo saturado de informação, o recurso escasso não é o conhecimento, mas a nossa capacidade de foco e concentração. O conceito, proposto inicialmente por Herbert Simon em 1971, continua atual: em sociedades hiperconectadas, aquilo que conquista a nossa atenção ganha relevância, enquanto o restante se dispersa no excesso de informação.
A fricção na tecnologia da informação
No contexto digital, o termo fricção é usado para descrever qualquer obstáculo ou resistência que dificulte a experiência do utilizador. Por isso, os programadores criam interfaces cada vez mais fluídas, intuitivas e automáticas.
Por exemplo, no Facebook o scroll infinito e as reações rápidas facilitam a interação. No TikTok, os vídeos começam automaticamente num feed personalizado. O YouTube oferece reprodução automática, legendas e um miniplayer flutuante. No Instagram, vídeos e stories reproduzem-se com um simples deslizar. O Twitter dá prioridade a tweets considerados relevantes, enquanto o LinkedIn sugere mensagens prontas e valida competências com um clique.
Por trás desta fluidez, estão algoritmos de aprendizagem automática que aprendem com os dados dos utilizadores e ajustam o conteúdo oferecido com base no histórico de interações.
Faça um teste: experimente clicar aleatoriamente num vídeo no Youtube no qual não tem interesse. Provavelmente, em apenas dois ou três cliques em conteúdos semelhantes, o seu feed será completamente reorganizado.
As grandes plataformas, cujo modelo de negócios depende da maximização do tempo de uso e da recolha de dados, resistem à introdução de obstáculos à fluidez da experiência. Há um conflito entre o design orientado para o lucro e o design orientado para o bem-estar.
Mesmo quando são introduzidas fricções, muitas vezes, elas consideram mais os interesses económicos da empresa – como dificultar o cancelamento de serviços pagos ou promover produtos – do que a autonomia do utilizador.
Com o tempo, podemos deixar de escolher ativamente o que ver, ouvir ou ler e passar a ser guiados por sugestões automáticas. Esta seleção algorítmica não apenas antecipa os nossos gostos, como também os molda.
Ao oferecer repetidamente conteúdos semelhantes, reforça o viés de confirmação, diminui a diversidade de experiências e cria ‘bolhas’ de conteúdo e ‘câmaras de eco’.
Cada vez mais estudos apontam que as redes sociais podem afetar o sistema de recompensa cerebral da mesma forma que as substâncias viciantes. Quanto mais fácil for clicar, deslizar ou reagir, maior é o risco de uso automatizado e compulsivo.
A fluidez extrema pode prender-nos em ciclos de estímulo e recompensa, capazes de desencadear sintomas de ansiedade, frustração, insónia, irritação, tristeza e insatisfação.
Diante desse cenário, muitos países estão a desenvolver projetos de regulamentação da internet. Só entre 2023 e 2024, mais de 40 estados dos Estados Unidos processaram as plataformas digitais, acusando-as de recorrer a estratégias subtis de condicionamento comportamental para manter crianças e adolescentes conectados por mais tempo.
A internet não é neutra
Ao contrário do que podemos ser levados a pensar, a internet não funciona ‘na nuvem’: ela depende de uma infraestrutura física e complexa. Cada sítio visitado, vídeo transmitido ou mensagem enviada viaja por meio de uma rede de cabos submarinos, fibras óticas, satélites e roteadores interconectados.
As informações não estão ‘no ar’, mas armazenadas em servidores distribuídos por mais de 10 mil centros de dados, localizados sobretudo nos Estados Unidos, Reino Unido e Alemanha.
Há dois pontos que quero destacar aqui. O primeiro, a ‘internet’ não é neutra. Os softwares, algoritmos e tudo o que envolve o uso das tecnologias digitais são projetados por pessoas que possuem interesses, vieses e ideologias. Assim, o visual, o tipo de tecnologia e a forma como interagimos não são ao acaso e nem a única maneira possível.
A Cambridge Analytica, empresa britânica de consultoria fundada em 2013, é um exemplo da criação e utilização de softwares com fins políticos. Tornou-se conhecida por recolher e analisar dados de milhões de utilizadores do Facebook, a partir dos quais elaborava perfis psicológicos detalhados.
Com base nesses perfis, enviava mensagens personalizadas capazes de influenciar perceções e comportamentos eleitorais. Os casos de maior repercussão foram a campanha presidencial dos Estados Unidos em 2016 e o plebiscito do Brexit, no Reino Unido. Ambos demonstram como a atenção e os dados capturados pelas tecnologias digitais podem ser convertidos em poder político.
Em janeiro de 2025, a Meta anunciou mudanças nos serviços de moderação das suas plataformas e encerrou o serviço de verificação de factos. A decisão foi justificada como uma defesa da liberdade de expressão. Conforme o relatório da própria empresa (Integrity Reports, First Quarter 2025), nos três primeiros meses após esta medida registou-se um aumento dos casos de bullying e de conteúdos violentos na rede.
Acha que foi apenas uma coincidência que os donos das principais Big Techs estivessem presentes na cerimónia de posse do atual presidente dos Estados Unidos? Um deles foi mesmo escolhido para coordenar o Departamento de Eficiência Governamental (DOGE, sigla em inglês), especialmente criado para si.
Ou, ainda, já se questionou sobre os motivos que levaram, em 2025, o presidente dos Estados Unidos a ameaçar anexar o Canadá e a Gronelândia, ou a exigir terras na Ucrânia como contrapartida pela mediação da guerra?
Estes países são aliados e parceiros dos Estados Unidos, mas também possuem ‘terras raras’, ou seja, regiões ricas em 17 elementos químicos essenciais para a produção de tecnologias estratégicas, como baterias, ímanes, semicondutores e telecomunicações, entre outros.
Em geopolítica, nada é aleatório – mesmo as ideias mais alucinadas ou meramente retóricas –, e as Big Techs são atores cada vez mais influentes neste jogo.
Consumo energético e a tecnologia da informação
O segundo ponto é que todo o sistema digital precisa de energia para funcionar. Em 2024, somente os centros de dados do Google consumiram 30,8 TWh – mais do que países como Lituânia, Luxemburgo, Timor-Leste ou Uruguai.
A Agência Internacional de Energia (IEA) indicou que, em 2024, o consumo global dos centros de dados com inteligência artificial foi de 415 TWh (o equivalente a cerca de 120 milhões de casas europeias durante um ano) e deverá duplicar até 2030.
Para se ter uma ideia, até uma simples pergunta, como ‘qual o nome do atual presidente de Timor-Leste?’, exige um processo complexo: após ser enviada do telemóvel ou computador, percorre cabos e redes, chega a um centro de dados, é processada por dezenas de servidores e, só depois, a resposta faz o caminho inverso até ao utilizador.
Essa interação, que dura entre 2 e 3 segundos, consome energia equivalente para manter uma lâmpada de 10 watts acesa durante cinco minutos. Ou ainda, para escrever um texto de no máximo 100 palavras, a Meta consome 46,5 Wh, o mesmo que manter 4 lâmpadas de LED acesas durante uma hora.
Quando as perguntas se tornam mais complexas, quando os textos são longos ou quando usamos imagens e vídeos, o gasto energético aumenta exponencialmente.
A isso somam-se milhões de litros de água usados no arrefecimento dos servidores e a emissão de toneladas de carbono para a atmosfera. A Microsoft, apenas para treinar o ChatGPT-3, consumiu pelo menos 700 mil litros de água para arrefecimento dos seus servidores. Conforme a reportagem da BBC News publicada em julho deste ano, os centros de dados que utilizam inteligência artificial poderão consumir entre 4 e 6 mil milhões de metros cúbicos de água até 2027.
O relatório sobre a economia digital de 2024, elaborado pelo Escritório da ONU para o Comércio e Desenvolvimento (Unctad), apontou que o setor de tecnologia da informação é responsável, em média, por 1,6 gigatoneladas de emissões de dióxido de carbono (CO2) na atmosfera. Número que aumenta anualmente com o crescimento das empresas de criptomoedas, jogos online, motores de busca, redes sociais e aplicações de texto. O resultado é que a pegada ecológica da inteligência artificial ultrapassa o consumo energético de nações inteiras.
Neste sentido, expressões como ‘armazenamento em nuvem’, ‘digital’, ‘virtual’, ‘inteligência artificial’, ‘liberdade’ ou ‘automatizado’ não são apenas metáforas, mas recursos semióticos que criam a imagem mental de uma tecnologia ‘limpa’, ‘não poluente’, ‘sem ocupar espaço’, ‘barata’, ‘livre de interesses’, ‘justa’ e ‘democrática’.
A terceirização do pensamento
Em 2025, foi publicado um estudo realizado por investigadores do Massachusetts Institute of Technology (MIT), onde analisaram o uso de modelos de linguagem (LLMs), como o ChatGPT, no desenvolvimento cognitivo de estudantes.
Para isso, foram comparados três grupos: um que usou apenas o cérebro (brain-only), outro que utilizou motores de busca (como o Google) e um terceiro que contou com o apoio de LLMs. Foram analisados fatores como a atividade cerebral (via eletroencefalograma), a qualidade e originalidade dos textos e a perceção de autoria dos participantes.
Os resultados mostraram que o grupo que utilizou LLMs reduziu a conectividade neural, o envolvimento cognitivo e a sensação de propriedade sobre os textos, enquanto o grupo ‘só cérebro’ apresentou maior ativação neural e melhor recordação.
Além disso, os ensaios produzidos com LLM revelaram menor diversidade linguística e temática, sugerindo que o uso prolongado de ferramentas automatizadas pode comprometer a aprendizagem e a autonomia cognitiva.
O cérebro humano tende a economizar energia, procurar a coerência e minimizar o esforço. Quando usamos ferramentas de inteligência artificial para ‘pensar’ por nós ou consumimos apenas conteúdos que reforçam aquilo em que já acreditamos, o cérebro acostuma-se com esse tipo de estímulo. Isso pode reduzir o esforço cognitivo necessário para processar novas informações ou lidar com o contraditório.
Se esse comportamento começa na infância, pode influenciar o desenvolvimento do lóbulo frontal, a área do cérebro responsável pelo raciocínio lógico, pela tomada de decisões e pela resolução de problemas. A longo prazo, pode comprometer habilidades cognitivas mais complexas, a reflexão crítica, a memória e a capacidade de controlar as emoções e lidar com a diversidade de ideias.
Tecnofobia ou tecnoutopia: que caminho escolher?
A resposta é: nenhum dos dois. O objetivo aqui não é ser alarmista, profetizar o apocalipse, nem incentivar o movimento dos offline ou dos tecnocrentes. Muito pelo contrário.
Este artigo que está a ler só foi possível porque usei energia elétrica, escrevi num computador, pesquisei artigos e dados na internet e enviei o texto aos editores através de uma aplicação de mensagens.
A tecnologia da informação, em si mesma, não é boa nem má. Mas também não é neutra ou impermeável às disputas de poder e de controlo social.
A maneira como usamos a internet influencia a nossa saúde física e mental, o desenvolvimento cognitivo, a capacidade de aprendizagem, o meio ambiente e o modo como nos organizamos em sociedade.
Por isso, considero importante refletirmos sobre os impactos psicológicos, educativos, socioculturais e ambientais do uso das tecnologias digitais, bem como sobre os interesses económicos, políticos e ideológicos que os condicionam.
Alessandro Boarccaech é psicólogo, especialista em psicologia clínica, psicoterapeuta, semiótico e Ph.D. em antropologia.


