Tecnologias digitais e democracia: desafios para a regulamentação global

Amanda Dechen Silva

Publicado em:
3/1/2026

Resumo

O presente ensaio discute os efeitos do avanço tecnológico sobre a democracia, com foco nos desafios da regulamentação digital. A difusão do uso da inteligência artificial em diferentes áreas, especialmente no jornalismo, levanta preocupações éticas e reforça a urgência de estruturas regulamentares que preservem a liberdade de expressão, a liberdade de imprensa e o pluralismo. No ambiente digital, observa-se o crescimento dos discursos de ódio e a dificuldade em estabelecer limites claros entre liberdade de expressão e incitação à violência, com exemplo nos contextos dos Estados Unidos, Brasil e Myanmar. São apresentados os esforços normativos da União Europeia e o debate legislativo brasileiro, ao evidenciar a influência das big techs e as tensões entre a regulamentação e as garantias fundamentais. Conclui-se que a regulamentação é um elemento central para a proteção da democracia em um cenário marcado pela expansão das plataformas digitais.

Palavras-chave:
Democracia; Inteligência Artificial; Liberdade de Expressão; Regulamentação Digital; Big Techs.

Introdução 

A Inteligência Artificial (IA) consolidou-se como uma temática central na agenda midiática e, progressivamente, tem conquistado espaço nos debates públicos e políticos. Um exemplo do crescente interesse por este tema são as principais conferências de tecnologia, que dedicam parte significativa de sua programação à discussão da IA, atraindo milhares de profissionais globalmente (Moura Vilela, 2020). Entre os questionamentos que permeiam essas agendas, os efeitos que o desenvolvimento da IA poderá ter sobre a força de trabalho figuram como uma das principais preocupações, sendo inclusive objeto de estudo do Fórum Econômico Mundial (2025). Isso se deve ao fato de que a IA não apenas substitui o trabalho humano, mas também se torna uma habilidade profissional cada vez mais exigida em diversos campos.

Até mesmo em áreas mais tradicionais, como a política, a IA está promovendo reconfigurações significativas. Exemplo disso foi a nomeação de Clara Chappaz como ministra de Inteligência Artificial da França, em outubro de 2024 (Ministère de l'Enseignement supérieur et de la Recherche, 2024). Embora os Emirados Árabes Unidos já tivessem um ministro dedicado ao tema desde 2017 (Instituto de Estudos Avançados da USP, 2024), a mídia ocidental enfatizou a narrativa de que a França havia sido pioneira nessa decisão, o que poderá influenciar outros países ocidentais.

Na Europa, a discussão sobre o papel da IA e sua regulamentação já se fazia presente desde 2019, quando começaram as discussões sobre a implementação de uma legislação voltada à IA. Por meio do Conselho da Europa, foi estabelecido um fórum com o objetivo de garantir os direitos humanos, a democracia e a proteção dos cidadãos em ambientes digitais. Entre as temáticas abordadas, encontram-se documentos que fornecem diretrizes e recomendações para o uso responsável da IA (Conselho da Europa, 2024). Além disso, a UNESCO, em 2022, emitiu um extenso guia com 141 recomendações sobre a ética da IA, abrangendo diversas áreas, incluindo alfabetização e educação digital (UNESCO, 2021).

Embora tais recomendações sejam essenciais para o direcionamento das estratégias de políticas públicas e das instituições, é fundamental destacar que, ao contrário de períodos históricos anteriores, a transformação digital possui o potencial de avançar tecnologicamente a uma velocidade de propagação significativamente superior. Um exemplo dessa aceleração tecnológica é evidenciada pela Microsoft, que bloqueia cerca de quatro mil ataques cibernéticos por segundo, ilustrando a intensidade e a rapidez com que a tecnologia tem evoluído (Microsoft, 2023).

Se há 60 anos o Teste de Turing foi desenvolvido para avaliar a capacidade de uma máquina imitar o comportamento humano (Kaufman, 2020), hoje já observamos reflexos dessa imitação nas ferramentas contemporâneas, evidenciando a aceleração do desenvolvimento da IA. Em entrevista ao site oficial das Nações Unidas, o físico Pedro Loos alertou que a Inteligência Artificial pode atingir um estágio futuro em que discussões científicas sobre mudanças climáticas sejam conduzidas por uma superinteligência artificial, destacando o potencial transformador da tecnologia nas próximas décadas (Nações Unidas, 2024).

Dessa forma, a substituição da força de trabalho por ferramentas automatizadas de Inteligência Artificial tornou-se um tema amplamente discutido. De acordo com o relatório do Fórum Econômico Mundial (2025), 41% dos empregadores globais planejam reduzir a força de trabalho por meio da automatização até 2030. O próximo tópico, portanto, abordará os efeitos da IA no jornalismo, uma das profissões essenciais para a manutenção da democracia (Costa & Silva, 2020).

O futuro do jornalismo: Inteligência Artificial Generativa como complemento ou risco? 

A popularização da Inteligência Artificial Generativa (IAG) ocasionada principalmente após o surgimento do ChatGPT, deu início a uma verdadeira transformação na forma como as atividades profissionais são configuradas. Reconhecida como a tecnologia que mais rapidamente conquistou uma ampla base de utilizadores na história (Expresso, 2023), o chat GPT passou a ser utilizado inclusive em áreas de alta complexidade como a medicina (Carvalho, 2024), onde é considerado uma ferramenta de apoio.

No entanto, no que diz respeito ao jornalismo, a inteligência artificial generativa apresenta um papel que vai além de um apoio, tornando a sua regulamentação uma questão urgente (Estrella Tutivén & Garde Cano, 2025). Uma pesquisa realizada em 2024 pela Sonda +M / Central de Informação constatou que 68% dos jornalistas em Portugal consideram urgente regulamentar o uso de IA no jornalismo, devido ao risco que essa tecnologia representa para os códigos deontológicos, especialmente quando utilizada de forma descontrolada (Ferreira, 2024). A mesma pesquisa revelou que 59% dos entrevistados não acreditam que o trabalho do jornalista possa ser completamente substituído por ferramentas de IA, argumentando que estas não possuem critérios jornalísticos (Ferreira, 2024).

Contudo, a inquietação quanto aos efeitos da IA no jornalismo deixou de ser apenas uma hipótese e tem sido confirmada por decisões concretas de grandes empresas de comunicação. Por exemplo, uma das maiores editoras digitais da Europa, a Axel Springer, anunciou a substituição de parte de seus jornalistas por ferramentas de IA (Direção do Sindicato dos Jornalistas, 2023). Além disso, a estação de rádio polaca OFF Radio Krakow dispensou os seus jornalistas e passou a utilizar “apresentadores” gerados por IA (CNN Business, 2024). Esses exemplos evidenciam uma tendência de automação que afeta não apenas a produção de conteúdos escritos, mas também a comunicação oral em meios de comunicação tradicionais.

Mesmo com a ausência de regulamentações específicas de IA na Europa para esta área, o Parlamento Europeu tem buscado alternativas para proteger os profissionais por outros meios. Por exemplo, a Lei Europeia da Liberdade dos Meios de Comunicação Social protege os jornalistas contra práticas como o uso de softwares espiões, além de implementar medidas que garantem a liberdade de imprensa (Parlamento Europeu, 2024). Segundo Estrella Tutivén e Garde Cano (2025), a regulamentação da IA é essencial para preservar a liberdade de imprensa, que, tal como a liberdade de expressão, é indispensável à proteção das democracias.

Nesse contexto, emerge um dos maiores desafios da era digital: o limite entre a liberdade de expressão e o discurso de ódio. Assim, na próxima seção, serão aprofundados os desafios relacionados à aplicação da jurisdição em ambientes digitais para combater o discurso de ódio.

Liberdade de expressão ou discurso de ódio: o desafio de estabelecer limites nas fronteiras do mundo digital e seus reflexos no mundo real 

O limite entre a liberdade de expressão e o discurso de ódio talvez seja uma das questões mais complexas na área dos direitos humanos, especialmente no ambiente digital. Embora existam instrumentos legais para garantir a justiça conforme as constituições de cada país, a regulação digital ainda carece de clareza e objetividade. De forma análoga ao que ocorre em águas internacionais, onde a ausência de uma jurisdição definida torna difícil a aplicação uniforme de normas, a regulação digital encontra-se imersa num cenário de indefinições que desafiam soluções claras (Starr, 2025).

De acordo com o Conselho da Europa (n.d), o discurso de ódio tem aumentado no território europeu desde o início do novo milênio, o que exige o fortalecimento de ações de combate ao ódio, com o objetivo de mobilizar a sociedade. No contexto digital, o Regulamento dos Serviços Digitais visa restringir comportamentos que coloquem em risco a segurança dos cidadãos e impõe responsabilidades às plataformas para a remoção de conteúdos ilegais (Conselho da Europa, 2024).

Contudo, o aumento do discurso de ódio não é um problema exclusivo da Europa. Em países do continente americano, como os Estados Unidos da América (EUA) e o Brasil, a combinação entre plataformas digitais e a propagação do ódio tornou-se uma ameaça significativa à democracia. Um exemplo disso foram as invasões ao Capitólio nos EUA, após Donald Trump alegar fraude nas eleições (Dale, 2023).

O episódio, que resultou em cinco mortes e 140 feridos (CNN Brasil, 2024), foi descrito por Trump, em novembro de 2024, como um “ato de amor” (FitzGerald, 2024). Embora tenha se isentado de responsabilidade ao alegar que os apoiadores agiram por vontade própria (FitzGerald, 2024), as evidências indicam que as suas declarações nas redes sociais online contribuíram diretamente para incitar o evento, mobilizando seus seguidores (de Moraes & Nobre, 2022).

Situação semelhante ocorreu no Brasil, com o ataque ao Palácio do Planalto por apoiadores do ex-presidente Jair Bolsonaro (BBC News Mundo, 2023). Em novembro de 2024, surgiram provas de que o ex-presidente utilizou canais digitais para planejar as invasões (Mendes, 2024), eventos com grandes semelhanças aos ocorridos nos EUA.

Nesse contexto, figuras públicas, políticos e personalidades influentes nas áreas da comunicação, desporto e cultura devem assumir a responsabilidade de promover a diversidade (Comissão Europeia, 2024), tendo um papel relevante no combate ao ódio. Os seus discursos nas redes sociais têm um alcance ampliado, e as suas ações podem influenciar profundamente as atitudes dos cidadãos.

Contudo, a complexidade do ambiente digital exige ações que sejam também corretivas. Em ambientes virtuais, o cruzamento de fronteiras é facilitado, tornando as regulamentações frágeis e os problemas ainda mais intrincados. Um caso emblemático é o processo movido pelos refugiados Rohingyas contra o Facebook, no qual a plataforma foi responsabilizada pelo aumento da disseminação de discursos de ódio contra essa minoria (BBC News Brasil, 2021). 

O Facebook, ao admitir, em 2018, que não tomou medidas adequadas para conter essa onda de violações de direitos humanos, levantou sérias dúvidas sobre o seu compromisso com a proteção dos utilizadores. Embora as leis norte-americanas isentem a empresa de responsabilidade pelo conteúdo publicado por utilizadores, essa não era a legislação em vigor em Myanmar, onde a plataforma não respeitou as normas locais (BBC News Brasil, 2021).

Apesar de escândalos dessa natureza, que envolvem graves violações de direitos humanos, o relatório anual da We Are Social (2024) indica que tais controvérsias não abalaram o crescimento da plataforma. Pelo contrário, o Facebook registou um aumento de 3,1% no número de utilizadores em relação a 2023, ultrapassando os 2 mil milhões de perfis ativos a nível global (We Are Social, 2024). A atuação da rede social online em mais de uma centena de países levanta questões cruciais sobre como essas situações devem ser reguladas em diferentes jurisdições. 

Em resposta a esses casos, o Facebook investiu em ferramentas baseadas em IA, alegando ter reduzido em até 50% o discurso de ódio na plataforma (Facebook, 2021), mas os desafios persistem. A Organização Não Governamental (ONG) SaferNet, que visa proteger os direitos humanos no ambiente digital, divulgou que, no primeiro semestre de 2022, constatou um aumento de 650% nos crimes de ódio na internet durante anos eleitorais no Brasil, impulsionado pelo extremismo político (Safer Net, 2022).

Já o Parlamento Europeu informou, dias antes das Eleições Europeias, que as instituições da União Europeia estavam preparadas para lidar com a desinformação (Parlamento Europeu, 2024), focando mais na manutenção da democracia por essa via do que em ações destinadas a combater o discurso de ódio durante o processo eleitoral. Com o avanço dos algoritmos e a opacidade dos seus códigos, especialistas alertam para os perigos de enviesamento e manipulação da população através de mensagens propagadas através de canais digitais (Barrett, 2024). 

Neste sentido, é importante destacar que, desde a década passada, houve avanços significativos no combate ao discurso de ódio, impulsionados pelo Conselho da Europa. Um exemplo notável foi a aprovação da Recomendação CM/Rec(2016) do Comite de Ministros, que apresenta diretrizes para enfrentar o discurso de ódio em diferentes esferas sociais (Conselho da Europa, 2015). No entanto, apenas em junho de 2024 a criminalização efetiva do discurso de ódio passou a integrar formalmente a agenda legislativa do Parlamento Europeu, por meio de uma proposta ainda em fase de deliberação e sem decisão oficial (Parlamento Europeu, 2024).

Embora as Nações Unidas (ONU) tenham definido a educação como uma das principais ferramentas para combater o discurso de ódio, esta deve figurar como prioridade em prol dos direitos humanos também noutras instâncias. Conforme as palavras da eurodeputada Maite Pagazaurtundúa, o discurso de ódio está a ser normalizado e evolui de forma rápida (Parlamento Europeu, 2024). 

Contudo, esta tendência não se limita apenas à Europa, e será necessário que os órgãos competentes desenvolvam medidas corretivas mais eficazes, com a compreensão de que agir localmente já não é suficiente. No tópico seguinte, será abordado o caso específico do Brasil e os desafios para a regulamentação da informação digital no país.

A regulamentação da informação digital no Brasil e os limites da influência das big techs

A Constituição brasileira de 1988 garante a liberdade de expressão e de imprensa, avanços significativos após o período da ditadura no país. Com o avanço da tecnologia, novas regulamentações começaram a surgir, como o projeto de lei "Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet", criado para regular o ambiente digital (Aires & Lima, 2022). 

Esse projeto de lei tem três pilares, sendo a proteção da democracia, a redução da circulação de notícias falsas e o aumento da transparência das empresas provedoras de internet no país. Além disso, o projeto de lei se aproxima das regulamentações europeias ao aumentar a responsabilidade das big techs, exigindo que essas empresas estabeleçam diretrizes para mitigar os riscos de seus serviços (BBC News Brasil, 2023). 

O Brasil se destaca globalmente em termos de conectividade digital e uso de redes sociais online, sendo o segundo país com maior presença nessas plataformas (We Are Social, 2024). Por essa razão, as big techs têm grande interesse em atuar no mercado brasileiro. No entanto, a atuação dessas empresas tem gerado controvérsias. A Polícia Federal identificou que algoritmos de empresas como Google e Telegram promoveram conteúdos contrários ao projeto de lei, configurando abuso de poder e manipulação de informações (Martins, 2024). 

Por um lado, a lei é vista como um avanço ao aumentar a responsabilização das big techs, ao proibir contas falsas em redes sociais online com mais de dois milhões de usuários e ao limitar o uso de automação – os chamados bots –, o que amplia a transparência no ambiente digital. Por outro, enfrenta resistência de alguns setores, incluindo partidos conservadores que a interpretam como uma ameaça à liberdade de expressão, chamando-a de "Projeto de Lei da Censura" (CNN Brasil, 2023). 

Dois pontos polêmicos emergem nesse debate. O primeiro é a questão de qual órgão seria responsável pela fiscalização. O governo propõe que a Anatel (Agência Nacional de Telecomunicações) assuma essa função, mas especialistas defendem que a responsabilidade deve recair sobre um órgão independente para evitar censura (BBC News Brasil, 2023). O segundo ponto é a imunidade parlamentar para postagens nas redes sociais online de determinados cargos políticos. Para os apoiadores, essa medida representa apenas uma extensão da imunidade já prevista na Constituição, agora aplicada também ao ambiente digital. No entanto, críticos argumentam que isso dificultaria a remoção de conteúdos que, embora problemáticos, não constituem crimes, podendo aumentar a desinformação (BBC News Brasil, 2023). 

Apesar das controvérsias, uma pesquisa da Atlas Intel (2023) revelou que 78% dos brasileiros apoiam a regulamentação das redes sociais online. A aprovação desse projeto de lei tem sido amplamente debatida, especialmente com as declarações do Elon Musk, dono do Twitter, que acusou o presidente do Supremo Tribunal Federal, Alexandre de Moraes, de censura (Câmara dos deputados, 2024). 

O projeto segue indefinido, apesar da crescente urgência em regulamentar as desordens informativas no Brasil. Assim, os desafios associados à regulamentação digital persistem, uma vez que a liberdade de expressão, enquanto fundamento das democracias contemporâneas, não pode ser instrumentalizada como justificativa para a disseminação do ódio e da violência (Lopes & Dias, 2025).

Conclusão 

A partir dos exemplos discutidos ao longo deste ensaio, torna-se evidente que a IA representa um desafio significativo e contínuo. Da mesma forma que a internet e a pandemia representaram marcos transformadores na organização social e exigiram adaptações rápidas e profundas, a IA já se consolidou no cotidiano dos cidadãos e, por isso, tende a permanecer como tema central na esfera pública, política e midiática.

Nesse contexto, a União Europeia se destaca pela implementação de diversas iniciativas e políticas visando à proteção dos cidadãos europeus. Porém, mesmo com o estabelecimento de medidas o risco permanece, dado que o ambiente digital transcende fronteiras geográficas, o que dificulta a aplicação de regulamentações eficazes e a proteção dos direitos dos cidadãos. 

O exemplo brasileiro ilustra de forma contundente o poder das grandes empresas de tecnologia, que adquiriram uma influência capaz de desafiar até mesmo as legislações nacionais. Quando associada ao potencial das redes sociais online para a disseminação de informações, sejam estas verídicas ou não, a IA pode se tornar uma ferramenta perigosa, com implicações diretas sobre a democracia e os processos políticos. Isso foi evidenciado através dos exemplos trazidos neste ensaio, tanto nas eleições dos Estados Unidos da América, quanto no discurso de ódio aos refugiados de Rohingyas. 

Além disso, os desafios futuros parecem se aproximar de forma acelerada, particularmente após o anúncio realizado pelo proprietário da Meta, Marc Zuckemberg, declarando que a plataforma não mais verificaria a veracidade das informações publicadas, justificando sua decisão com base no princípio da liberdade de expressão (Palma, 2025). Tal posicionamento pode intensificar a disseminação de desinformação, tornando ainda mais complexa a gestão e regulação das redes sociais online

No que diz respeito às profissões, o jornalismo enfrenta uma ameaça crescente com o avanço da Inteligência Artificial. Ao ser usada para gerar notícias, a IA pode resultar em informações imprecisas ou manipuladas, como evidenciado por incidentes de desordens informativas amplificados por algoritmos de redes sociais online. Embora a automação traga ganhos em velocidade, ela coloca em risco a integridade da prática jornalística, especialmente em um contexto onde a verificação de fatos e a análise crítica não serão mais levado em consideração por algumas big techs, conforme constatado por Palma (2025).

Uma das principais limitações deste ensaio é o fato de os exemplos analisados serem predominantemente gerais e focados em contextos ocidentais, o que restringe a profundidade da análise. Recomenda-se, portanto, que trabalhos futuros explorem não apenas outras realidades geográficas, como os contextos orientais, mas também casos mais específicos e delimitados, de modo a permitir uma abordagem mais detalhada e direcionada.

Referências 

Aires, N. D. A. G., & Lima, G. M. M. P. (2022). A responsabilidade civil em decorrência das fake news e o projeto de Lei nº 2.630/2020 Civil liability as a result of fake news and Bill no. 2630/2020. Brazilian Journal of Development, 8(6), 43353-43366. https://doi.org/10.34117/bjdv8n6-056 

Atlas Intel (2023, abril 15). Pesquisa sobre o impacto das redes sociais no bem-estar e segurança dos brasileiros. Atlas Intel. https://static.poder360.com.br/2023/05/Regulacao-Redes-Sociais-avaaz.pdf 

Barrett, N. (2024, 14 de outubro). Como algoritmos mudaram a maneira como interagimos. BBC News Brasil. https://www.bbc.com/portuguese/articles/cm2yjzpykg7o 

BBC News Brasil. (2021, dezembro 7). Refugiados rohingya pedem R$ 850 bilhões de indenização ao Facebook por discurso de ódio em Mianmar. BBC News Brasil. https://www.bbc.com/portuguese/internacional-59562137 

BBC News Brasil. (2023, maio 3). O que está em jogo no projeto 2630, o PL das fake news [Vídeo]. Youtube. https://www.youtube.com/watch?v=dynpUlbWnjM 

BBC News Mundo. (2023, 10 de janeiro). Invasões em Brasília: 3 semelhanças (e 3 diferenças) com a invasão do Capitólio nos EUA há 2 anos. BBC News Mundo. https://www.bbc.com/portuguese/brasil-64220636 

Câmara dos Deputados. (2024, abril 9). Polêmica entre Elon Musk e Alexandre de Moraes repercute nos discursos de deputados. Agência Câmara de Notícias. https://www.camara.leg.br/noticias/1050358-polemica-entre-elon-musk-e-alexandre-de- moraes-repercute-nos-discursos-de-deputados/ 

Carvalho, M. J. (2024). Chat GPT in health Systems and medical education. Acta Obstet Ginecol Port, 18(1), 7-8. https://www.fspog.org/images/2024-1/2024-1%20-%2003%20Editorial-AOGP-01-24.pdf 

CNN Brasil. (2023, maio 2). Dois Lados: deputados debatem votação do PL das Fake News | LIVE CNN [Vídeo]. Youtube. https://www.youtube.com/watch?v=AbzFNJSN3VM 

CNN Brasil. (2024, 6 de janeiro). Invasão do Capitólio dos EUA completa três anos neste sábado (6); relembre. CNN Brasil. https://www.cnnbrasil.com.br/internacional/invasao-do-capitolio-dos-eua- completa-tres-anos-neste-sabado-6-relembre/ 

CNN Business. (2024, 24 de outubro). Polish radio uses AI presenters to take over airwaves. CNN Business. https://edition.cnn.com/2024/10/24/media/polish-radio-ai-presenters-scli-intl/index.html 

Comissão Europeia. (2023, 6 de dezembro). JOIN(2023) 51 final: Comunicação conjunta ao Parlamento Europeu e ao Conselho - Não ao ódio: uma Europa unida contra o ódio. COM .https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:52024DC0419 

Conselho da Europa (2024). Regulamento Inteligência Artificial. Conselho da Europa. https://www.consilium.europa.eu/pt/policies/artificial-intelligence/

Conselho da Europa. (n.d.). No hate speech movement. Conselho da Europa. https://www.coe.int/en/web/no- hate-campaign 

Costa e Silva, E. (2020). Apoios à imprensa: Policy paper. Observatório de Políticas de Comunicação e Cultura; Centro de Estudos de Comunicação e Sociedade, Universidade do Minho. https://polobs.pt/wp-content/uploads/2020/03/ApoiosImprensaPolicyPaper.pdf

Dale, D. (2023, 20 de agosto). Veja 27 mentiras ditas por Trump sobre a eleição de 2020, segundo acusação da Geórgia. CNN Brasil. https://www.cnnbrasil.com.br/internacional/veja-27-mentiras-ditas-por-trump- sobre-a-eleicao-de-2020-segundo-acusacao-da-georgia/ 

De Moraes, T. F., & Nobre, F. R. F. (2022). Mídias sociais e Fake News: desinformação como ferramenta antidemocrática no governo Trump. REI-Revista de Estudos Internacionais, 13(1). https://doi.org/10.29327/252935.13.1-5 

Direção do Sindicato dos Jornalistas. (2023, 1 de outubro). Os desafios da Inteligência Artificial para o jornalismo: do emprego, à ética e aos direitos de autor. Sindicato dos Jornalistas. Sindicato dos Jornalistas. https://jornalistas.eu/os-desafios-da-inteligencia-artificial-para-o-jornalismo-do-emprego-a-etica-e-aos-direitos-de-autor/ 

Estrella Tutivén, I. V., & Garde Cano, C. (2025). Ética Jornalística na Era da Inteligência Artificial: Rumo a uma Atualização dos Códigos Deontológicos no Contexto Ibero-Americano. Comunicação E Sociedade, 47, e025010. https://doi.org/10.17231/comsoc.47(2025).6206

Expresso. (2023, 3 de fevereiro). 100 milhões de utilizadores em dois meses: ChatGPT bate recorde e torna-se aplicação com crescimento mais rápido de sempre. Expresso. https://expresso.pt/economia/economia_tecnologia/2023-02-03-100-milhoes-de-utilizadores-em-dois-meses-ChatGPT-bate-recorde-e-torna-se-aplicacao-com-crescimento-mais-rapido-de-sempre-8ad4d329 

Facebook. (2021, outubro 17). A prevalência de discurso de ódio diminuiu quase 50% no Facebook. About Facebook. https://about.fb.com/br/news/2021/10/a-prevalencia-de-discurso-de-odio-diminuiu-quase-50-no-facebook/ 

Ferreira, C. B. (2024, 17 de julho). Jornalistas defendem regulamentação para limitar uso de IA. Eco Sapo. https://eco.sapo.pt/2024/07/17/jornalistas-defendem- regulamentacao-para-limitar-uso-de-ia/ 

FitzGerald, J. (2024, 17 de outubro). Trump calls 6 January 'day of love' when asked about Capitol riot. BBC News. https://www.bbc.com/news/articles/ckgnxej1dn0o 

Forum Economico Mundial. (2025). The future of jobs 2025 – Press release (Portuguese version). https://reports.weforum.org/docs/WEF_Future_of_Jobs_2025_Press_Release_PTBR.pdf

Instituto de Estudos Avançados da USP. (2024). Eu fui o primeiro ministro de IA da história. Understanding AI. https://understandingai.iea.usp.br/nota-critica2/eu-fui-o-primeiro-ministro-de-ia-da-historia/ 

Kaufman, D. (2020). Inteligência artificial: repensando a mediação. Brazilian Journal of Development, 6(9), 67621-67639. https://doi.org/10.34117/bjdv6n9-264

Lopes, T. A., & Dias, P. M. (2025). A Responsabilidade das Big Techs e os Limites da Liberdade de Expressão no Combate aos Crimes Cibernéticos. Revista Ibero-Americana de Humanidades, Ciências e Educação, 11(6), 147-164.

Martins, L. (2024, janeiro 31). PL das Fake News: polícia vê abuso de poder das big techs. Valor Econômico. https://valor.globo.com/politica/noticia/2024/01/31/ao-stf-pf-diz-que-big-techs-adotaram-estratgias-questionveis-contra-pl-de-fake-news.ghtml 

Mendes, L. (2024, 28 de novembro). Falência total e absoluta” diz Moraes sobre sistema de autorregulação das redes sociais. CNN Brasil. https://www.cnnbrasil.com.br/politica/falencia-total-e-absoluta-diz-moraes- sobre-sistema-de-autorregulacao-das-redes-sociais/ 

Microsoft. (2023). Microsoft Digital Defense Report 2023. https://www.microsoft.com/en-us/security/security-insider/microsoft-digital-defense-report-2023 

Ministère de l'Enseignement supérieur et de la Recherche. (2024). Clara Chappaz, secrétaire d'État chargée de l'intelligence artificielle et du numérique. https://www.enseignementsup-recherche.gouv.fr/fr/clara-chappaz-secretaire-d-etat-chargee-de-l-intelligence-artificielle-et-du-numerique-97460 

Moura Vilela, C. M. D. (2020). O impacto da inteligência artificial no direito intelectual e no mercado tecnológico. Derecho público y privado ante las nuevas tecnologías, 458- 465. https://doi.org/10.2307/j.ctv153k4rn.49 

Nações Unidas. (2024, março 21). Relatório da ONU defende limites éticos para inteligência artificial. ONU News. https://news.un.org/pt/story/2024/03/1829446 

Palma, T. (2025, May 28). Ninguém pode garantir que a Meta não vai utilizar os seus dados pessoais... mesmo que tenha dito não dentro do prazo que já passou. CNN Portugal. https://cnnportugal.iol.pt/facebook/instagram/ninguem-pode-garantir-que-a-meta-nao-vai-utilizar-os-seus-dados-pessoais-mesmo-que-tenha-dito-nao-dentro-do-prazo-que-ja-passou/20250528/68360c2fd34ef72ee446831b

Parlamento Europeu. (2024, 13 de março). Nova legislação para proteger os jornalistas e a liberdade de imprensa na UE. Parlamento Europeu. https://www.europarl.europa.eu/news/pt/press-room/20240308IPR19014/nova-legislacao-para-proteger-os-jornalistas-e-a-liberdade-de-imprensa-na-ue 

Parlamento Europeu. (2024, 5 de junho). Eleições europeias: Instituições da UE preparadas para combater a desinformação. Parlamento Europeu. https://www.europarl.europa.eu/news/pt/press-room/20240603IPR21804/eleicoes-europeias-instituicoes-da-ue-preparadas-para-combater-a-desinformacao 

Parlamento Europeu. (2024, janeiro 18). É altura de criminalizar o discurso de ódio e os crimes de ódio ao abrigo do direito da UE. Parlamento Europeu. https://www.europarl.europa.eu/news/pt/press-room/20240112IPR16777/criminalizar-o-discurso-de-odio-e-os-crimes-de-odio-ao-abrigo-do-direito-da-ue 

Safer Net. (2022, agosto 29). Crimes de ódio na internet crescem até 650% em ano eleitoral. Safer Net. https://new.safernet.org.br/content/crimes-de-odio-tem-crescimento-de-ate-650-no-primeiro-semestre-de-2022 

Starr, K. (2025). Digital maritime doctrine™: A framework for global platform accountability. KStarr Enterprises,LLC. https://www.katherinestarr.com/digital-maritime-doctrine

UNESCO. (2021). Recomendação sobre a Ética da Inteligência Artificial. Tikinet Edições Ltda. https://unesdoc.unesco.org/ark:/48223/pf0000381137_por 

We Are Social. (2024, janeiro 31). Digital 2024: Global overview report. We Are Social. https://datareportal.com/reports/digital-2024-global-overview-report