SAÚDE QUE SE VÊ

Conselhos de ética ibéricos querem lei de saúde digital infantojuvenil

LUSA
04-03-2026 16:02h

Conselho Nacional de Ética para as Ciências da Vida e o congénere espanhol defenderam hoje a criação de uma lei de saúde digital infantojuvenil, entre medidas urgentes para proteger crianças e jovens do uso excessivo de tecnologias digitais.

Numa posição conjunta, o Conselho de Ética e o Comité de Bioética de Espanha propõem a limitação de “funcionalidades potencialmente aditivas” nas redes sociais e a proibição de conteúdos violentos, pornográficos ou associados a jogos de fortuna ou azar para menores, como medidas de proteção da saúde e do desenvolvimento de crianças e adolescentes.

Neste sentido, aprovaram um parecer sobre o impacto do uso excessivo das tecnologias digitais na saúde, apresentado hoje no simpósio internacional “Digital Sovereignty for Europe – an Ethical Framework”, realizado na Fundação Calouste Gulbenkian, em Lisboa.

No documento, sublinham que os prejuízos associados ao uso excessivo das tecnologias digitais - incluindo alterações do sono, ansiedade, dificuldades de concentração, isolamento social e impacto no rendimento escolar - não se limitam ao ambiente online, “refletindo e amplificando” vulnerabilidades sociais, educativas e familiares já existentes.

Os conselhos ibéricos consideram que não é possível responder a este problema com soluções isoladas: “Importa considerar simultaneamente as áreas da saúde, da educação, equidade social, envolvendo múltiplos atores como são o Estado, empresas tecnológicas, profissionais de saúde, sociedade civil, escolas, famílias e os próprios jovens”.

Entre as recomendações, defendem a criação de uma lei que assegure a regulamentação atualizada e permanente da indústria tecnológica, limitando funcionalidades potencialmente aditivas como a rolagem infinita (skroll), a reprodução automática de conteúdos ou sistemas de recompensa visíveis.

“Deve também ser reforçada a proteção da privacidade dos menores”, sublinham.

No parecer, propõem a proibição de funcionalidades aditivas até aos 16 anos e de conteúdos violentos, pornográficos ou associados a jogos de fortuna ou azar até aos 18 anos, com mecanismos de verificação etária eficazes.

Às empresas tecnológicas e orientadas para a transformação digital apelam para o respeito pelos direitos humanos no desenho de plataformas e algoritmos, assim como para a adoção de mecanismos de deteção de riscos e explicação clara dos critérios de recomendação de conteúdos.

Para as escolas, fica a recomendação do reforço da educação para a cidadania e segurança digital, capacitação das famílias para a mediação do uso das tecnologias e o envolvimento ativo dos jovens na construção de ambientes digitais mais seguros e inclusivos.

MAIS NOTÍCIAS