Vote Up Down
Vote up!

1

A Grã-Bretanha está a tentar censurar os americanos, mas Washington está a lutar

Corpo

Autor de Daniel Lü via The Daily Sceptic,

A Ofcom confirmou que se refere à 4chan a uma decisão final de execução nos termos da Lei de Segurança Online. O alvo é uma empresa Delaware que gere um quadro de imagens totalmente anônimo dos Estados Unidos, sem escritórios, funcionários, servidores ou ativos na Grã-Bretanha.

A demanda: instalar sistemas de verificação de idade e filtros de conteúdo para que as crianças britânicas não possam acessar o site ou enfrentar multas diárias cobradas de Londres em uma plataforma americana.

Este caso não é um caso estranho.

É o mais claro demonstração do mundo real do que a nova geração de leis de “segurança online” requer: as empresas privadas devem construir filtros automatizados que decidam, com antecedência, qual discurso jurídico é prejudicial demais para os menores verem. A pergunta que os reguladores nunca respondem é simples: o que exatamente o filtro captura?

No início da década de 2020, formou-se um consenso político em ambos os lados do Atlântico: as redes sociais estão a prejudicar as crianças e algo tem de ser feito. O resultado em Washington foi o Kids’ Online Safety Act (KOSA); em Westminster, o Online Safety Act (OSA), que recebeu Royal Assent em outubro de 2023 e começou a execução em 2025. O apelo político de ambas as medidas é genuíno. A saúde mental do adolescente deteriorou-se na década de 2010, os pais estão alarmados e as plataformas parecem indiferentes. Mas as boas intenções não fazem uma boa lei, e a forma como essas intervenções tomaram é constitucional e moralmente indefensável. Tanto a KOSA quanto a OSA repousam em um modelo de dever de cuidar: plataformas devem tomar “medidas razoáveis” ou implementar “sistemas proporcionais” para evitar que menores encontrem conteúdos associados à depressão, ansiedade, transtornos alimentares, automutilação e suicídio. Isto não é um regulamento de conduta. É um mandato para suprimir o discurso baseado em seu tópico e seu efeito emocional previsto sobre um leitor: a própria definição de regulação baseada em conteúdo.

A União Americana das Liberdades Civis (ACLU) afirmou claramente o problema constitucional em sua carta de julho de 2023 opondo-se à KOSA: o projeto de lei “é uma regulamentação baseada em conteúdo de discurso constitucionalmente protegido” que “silenciará conversas importantes, limitará o acesso dos menores a recursos potencialmente vitais e violará a Primeira Emenda”. EmbaixoReed v. Cidade de Gilbert, uma lei é baseada no conteúdo se “aplica-se a um discurso particular por causa do tema discutido ou da ideia ou mensagem expressa”. Os regulamentos baseados em conteúdo são “presumivelmente inconstitucionais”.

A ACLU identificou três falhas constitucionais específicas.

Primeiro, o discurso visado é protegido. O Supremo Tribunal nunca permitiu que o governo suprimisse o discurso legal simplesmente porque uma legislatura o considera inadequado para as crianças. Em Brown v. Entertainment Merchants Association, o Tribunal foi inequívoco: "Fala que não é nem obsceno quanto aos jovens nem sujeito a alguma outra proscrição legítima não pode ser suprimida apenas para proteger os jovens de idéias ou imagens que um corpo legislativo pensa inadequado para eles." Criar uma “categoria totalmente nova de regulação baseada em conteúdo” permitida apenas para a fala dirigida às crianças seria “sem precedentes e enganados”.

Em segundo lugar, esses regimes falham no escrutínio rigoroso, pois não são pressupostos sobre o nexo de causalidade demonstrado. Como escreveu a ACLU, a KOSA “não se baseia em um nexo causal direto, mas sim na correlação, não em evidências de causalidade”. Este é um ponto jurídico e moral decisivo. Em Brown, o Tribunal derrubou a restrição de jogos eletrônicos da Califórnia com exatamente os mesmos fundamentos: o estado tinha produzido apenas dados correlativos. Uma lei que restringe o discurso de milhões de pessoas tem de mostrar que a restrição irá realmente impedir os danos que identifica. Nem a KOSA nem a OSA podem limpar essa barra.

Em terceiro lugar, estes regimes são tanto sub- e sobre-inclusive. Eles deixam mídias de notícias, livros, música e revistas totalmente desreguladas enquanto focam plataformas de mídia social. E eles vão, inevitavelmente, varrer a fala benéfica ao lado de discurso prejudicial: 92% dos aplicativos de controle parental foram encontrados incorretamente bloquear conteúdo LGBTQ+ e recursos de prevenção de suicídio ao lado de material que é genuinamente prejudicial. O Congresso, a ACLU concluiu, não pode contar com tecnologia futura não comprovada para salvar o estatuto.

A premissa empírica de ambos os regimes é que as mídias sociais causam doenças mentais em adolescentes. Esta alegação é contestada por um grupo substancial de investigação revista por pares. Numa resenha de livros amplamente notada emNatureza, Candice L. Odgers, psicóloga especializada em saúde mental adolescente na UC Irvine, escreveu que os gráficos produzidos por Jonathan Haidt em sua obraA Geração Ansiosa, que alinham o aumento da doença mental adolescente com a adoção do smartphone, “será útil para ensinar aos meus alunos os fundamentos da inferência causal, e como evitar inventar histórias simplesmente olhando para linhas de tendência”. Centenas de pesquisadores, escreveu Odgers, “tem procurado o tipo de grandes efeitos sugeridos por Haidt. Nossos esforços produziram uma mistura de associações não, pequenas e mistas. A maioria dos dados são correlativos.” A direção da causalidade pode correr de outra forma: adolescentes angustiados e isolados gravitam para a comunidade online; as mídias sociais não necessariamente criam o sofrimento.

A implicação prática é clara. O direito penal existente já cobre os danos mais graves de forma abrangente: o material de abuso sexual infantil (CSAM), o conteúdo terrorista, o incitamento à violência e o assédio são todos criminosos em ambas as jurisdições e todos os “conteúdos ilegais prioritários” designados sob as agendas 5-7 da OSA. O elemento verdadeiramente novo de ambos os regimes é o dever de suprimirlegaldiscurso sobre saúde mental, identidade de gênero e sofrimento emocional. Este elemento é o que falha tanto na primeira alteração como na análise básica da proporcionalidade.

A vítima mais imediata e documentada da implementação da OSA tem sido as comunidades LGBTQ+. Este não é um erro de implementação. É estrutural: as plataformas de filtros de conteúdo implantar para cumprir com as obrigações de garantia de idade não pode distinguir entre conteúdo que causa danos à juventude LGBTQ+ e conteúdo que os protege. Após o lançamento da aplicação de julho de 2025, Reddit moveu conteúdo significativo da comunidade LGBTQ+ para trás das barreiras de verificação da idade sobre a lógica de que o conteúdo queer é “conteúdo adulto” e, portanto, sob a Lei, presumível prejudicial às crianças. Como o OpenDemocracia documentou, os criadores de conteúdo que são “queer, trans ou racializado”, ou cujo conteúdo se concentra nestas comunidades, foram “desproporcionalmente visados, com qualquer coisa ‘queer’ indiscriminadamente rotulado como ‘adulto’”. Para as pessoas trans, o dano é agravado pelo problema de documentação de identidade. A verificação da idade requer que os usuários produzam identidade emitida pelo governo que corresponda ao seu nome legal e sexo. Em 2018, menos de 5.000 pessoas trans no Reino Unido tinham um certificado de reconhecimento de gênero, de uma estimativa de 200.000-500.000. Para aqueles sem reconhecimento legal de gênero, a verificação da idade não é um pequeno inconveniente, obriga-os a se exporem a um terceiro comercial como condição de acesso à internet, criando um registro permanente ligando sua identidade legal a espaços que possam estar usando justamente para explorar sua identidade em segurança. Os riscos morais aqui não são abstratos. Para os jovens LGBTQ+ que não podem estar abertos em casa ou na escola, a comunidade online não é uma conveniência, mas uma salvação. Stonewall advertiu que as medidas de redução do anonimato criam um “efeito relaxante” que coloca as pessoas LGBTQ+ em perigo genuíno, particularmente nos 12 países onde ser LGBTQ+ carrega a pena de morte. Como escreveu o Diretor de Assuntos Externos de Stonewall: “A lei de segurança on-line do Reino Unido poderia se tornar o playbook para países que procuram usar a vigilância digital para identificar e perseguir seus cidadãos LGBTQ+. “ O Relatório de Práticas de Direitos Humanos do Departamento de Estado dos EUA 2024 criticou a OSA por pressionar as plataformas de mídia social dos EUA para “discurso de censura considerado desinformação ou discurso de ódio”.

A pressão regulamentar sobre as plataformas dos EUA não se limita à Ofcom. Em 24 de fevereiro de 2026, o Gabinete do Comissário da Informação (OIC), regulador independente de proteção de dados do Reino Unido, emitiu uma multa de 14,47 milhões de libras para o tratamento ilegal de informações pessoais de crianças: a maior penalidade que a OIC já impôs por violações da privacidade das crianças. A OIC concluiu que a Reddit, apesar de proibir os utilizadores com menos de 13 anos pelos seus termos de serviço, não aplicou nenhum mecanismo robusto de garantia da idade de maio de 2018 até julho de 2025, pelo que não tinha qualquer base legal para o tratamento dos dados pessoais de menores de 13 anos ao abrigo do Regulamento Geral de Proteção de Dados do Reino Unido. A omissão da Reddit na realização de uma avaliação do impacto da protecção de dados (DPIA) incidiu nos riscos para as crianças antes de Janeiro de 2025, violando separadamente os artigos 5.o, 6.o, 8.o e 35.o do RGPD do Reino Unido. A Reddit anunciou sua intenção de apelar, chamando o requisito da ICO de coletar informações de identidade de usuários “contraintuitivas e em desacordo com nossa forte crença na privacidade e segurança online de nossos usuários”. O ICO agiu ao abrigo do seu Código de Design Apropriado para a Idade (o «Código das Crianças») e não da OSA, mas os dois regimes são coordenados: o ICO admitiu abertamente que trabalha em parceria com a Ofcom, como afirmou o ICO na sua actualização do progresso da privacidade das crianças de Dezembro de 2025, “para garantir que os esforços sejam coordenados”. A coima é juridicamente distinta da aplicação da AOS, mas funcionalmente complementar: Quando a Ofcom visa as funções de gestão de conteúdo das plataformas, a OCI visa as suas falhas de gestão de dados e a mesma conduta subjacente de permitir que os utilizadores não verificados por idade acessem simultaneamente o conteúdo desencadeia a responsabilidade em ambos os regimes. O ICO está agora a realizar uma revisão mais ampla de pelo menos 17 plataformas populares entre as crianças no Reino Unido, incluindo Discord, Pinterest e X. A objecção da Reddit também evidencia outra contradição que a ICO não resolveu: a verificação da idade que efetivamente manda cria um registro permanente ligando as identidades legais dos usuários à sua atividade de plataforma, realizada por processadores de verificação da idade de terceiros inteiramente fora dos próprios sistemas das plataformas, e as práticas de dados desses processadores são, como demonstra a própria aplicação da ICO, em grande parte além da preocupação do regulador.

O contraste entre o vigor da OCI contra as plataformas de mídia social americanas e sua passividade com as forças policiais britânicas é, em seu rosto, um estudo sobre a aplicação seletiva.

Na mesma semana que John Edwards anunciou a multa de £14,47 milhões Reddit e falou no IAPP UK Intensive, a história de Alvi Choudhury estava fazendo televisão nacional. Choudhury, 26 anos, engenheiro britânico de software de Bangladesh, tinha sido preso em sua casa em Southampton em janeiro de 2026 pela polícia de Thames Valley, que suspeitou que ele cometeu um roubo de £ 3.000 em Milton Keynes: uma cidade que ele nunca visitou, a 160 km de distância. A prisão foi desencadeada por uma correspondência retrospectiva de reconhecimento facial contra o software Cognitec que realiza 25.000 buscas por mês contra aproximadamente 19 milhões de fotografias de custódia mantidas no Banco de Dados Nacional da Polícia. Choudhury foi mantido sob custódia por quase 10 horas antes dos oficiais examinarem as provas do álibi que ele tinha oferecido desde a sua prisão. Quando ele eventualmente viu as imagens de CCTV que o tinham identificado, ele disse aoGuardiãoo suspeito parecia aproximadamente 10 anos mais jovem, com pele mais clara, nariz maior, sem pêlo facial e olhos e lábios diferentes. Sua própria foto estava no sistema policial em primeiro lugar apenas porque ele foi preso erroneamente em 2021 depois de ser vítima de um assalto; seu DNA foi posteriormente excluído, mas sua foto de custódia não foi. A resposta da Polícia de Thames Valley foi, por conta própria, reveladora. A força reconheceu que a prisão “pode ter sido resultado de viés dentro da tecnologia de reconhecimento facial”, mas um oficial disse a Choudhury que “como o uso do reconhecimento facial já está sujeito a revisão em nível estratégico”, ele não sentiu a necessidade de levantar o assunto para uma aprendizagem organizacional mais ampla. A declaração pública da força foi mais longe, reframing o fracasso inteiramente: a prisão, disse, foi baseada na avaliação visual do próprio oficial de investigação após a partida algorítmica, e, portanto, “não foi influenciada pelo perfil racial”. A posição de que um oficial humano confirmando um resultado algorítmico racialmente enviesado absolve a instituição da responsabilidade pelo viés racial não merece comentários prolongados. Isto não é um incidente isolado. Em janeiro de 2026, outra força pagou danos a um negro injustamente preso usando a mesma tecnologia. A pesquisa no Home Office, suprimida até dezembro de 2025, quando foi publicada no fundo de um documento de consulta da Liberty Investigates, constatou que o algoritmo gera falsos positivos a uma taxa de 5,5% para rostos negros e 4,0% para rostos asiáticos, em comparação com 0,04% para rostos brancos: uma disparidade de mais de 100 para um.

Quando Edwards subiu ao palco, ele explicou a filosofia de execução do ICO: o regulador deve “escolhar muito deliberadamente nosso foco”, concentrando-se em “AI e biometria, privacidade das crianças e rastreamento online”. O reconhecimento facial da polícia envolve os três. Mas a OCI realizou auditorias, manifestou preocupação através do seu Comissário Adjunto, e pediu ao Ministério do Interior “clareza urgente” e parou lá. A Comissão de Igualdade e Direitos Humanos tem sido mais franca: foi concedida permissão em agosto de 2025 para intervir em uma revisão judicial do programa de reconhecimento facial ao vivo da Polícia Metropolitana, argumentando que os desdobramentos são ilegais por falta de uma base jurídica clara. Um comentário feito na época sobre a postura da OCI mostrou-se apto: o regulador havia “stressado a necessidade de implantação de TRF com salvaguardas adequadas” enquanto se sentava “na cerca” como outros buscavam determinar judicialmente se o uso atual é “stritamente necessário”. A justaposição é instrutiva. O regulador encarregado de proteger os dados pessoais considera urgente o valor de 14 milhões de libras esterlinas no facto de Reddit não ter verificado a idade dos seus utilizadores, e nenhuma urgência comparável num sistema de vigilância biométrica que o seu próprio adjunto chamou de “desapontamento”, que a própria investigação do governo mostra discriminar as minorias por um factor superior a 100, e que produziu detenções injustas de minorias raciais com base numa tecnologia que a própria força operacional admite ser racialmente tendenciosa. O filtro, como sempre, captura o que o filtro não é intencionalmente projetado para capturar.

Tudo isso seria um problema doméstico britânico se o alcance da AOS fosse limitado ao solo britânico. Não é. A secção 3 da OSA aplica-se a qualquer serviço com “ligações com o Reino Unido”, que a Ofcom interpretou para incluir qualquer plataforma com uma base de utilizadores do Reino Unido significativa, independentemente de onde esteja domiciliada, incorporada ou operada. Em março de 2025, a Ofcom escreveu à 4chan Community Support LLC, uma Delaware LLC sem escritórios, pessoal ou ativos fora dos Estados Unidos, para informá-lo de que era um serviço regulamentado porque aproximadamente 7% do seu tráfego veio de endereços de IP do Reino Unido e, portanto, deve fornecer informações sobre a sua avaliação ilegal de risco de conteúdo e sua receita mundial qualificada. 4chan recusou-se a responder a qualquer pedido. Em outubro, a Ofcom emitiu demandas crescentes, investigações e uma multa de £20.000 mais uma penalidade de £100 por dia por até 60 dias por não conformidade com pedidos de informação, todos servidos por e-mail para endereços dos EUA. 4chan novamente recusou-se a pagar. Em agosto de 2025, 4chan and Kiwi Farms (Lolcow LLC) entrou com uma ação federal contra a Ofcom no Distrito de Columbia, alegando violações da Primeira, Quarta e Quinta Emendas, preempção pela Seção 230 da Lei de Decência das Comunicações e conflito com a Lei SPEECH. A Ofcom respondeu afirmando imunidade soberana ao abrigo da lei de imunidades soberanas estrangeiras, alegando tanto o direito de emitir ordens de censura vinculativas aos americanos em solo americanoeimunidade de qualquer resposta legal americana.

A ação de execução da Ofcom contra 4chan não terminou com a multa de coleta de informações de outubro de 2025. Em 12 de fevereiro de 2026, a Ofcom emitiu uma segunda decisão provisória contra a 4chan, propondo uma sanção única e uma pena diária para as violações das seções 9, 10 e 12 da OSA: suas obrigações substantivas para realizar uma avaliação de risco de conteúdo ilegal adequada, para definir proteções adequadas do usuário em seus termos de serviço, e para implementar a verificação da idade para evitar que as crianças encontrem conteúdo explícito. O advogado de 4chan, Preston Byrne, respondeu no mesmo dia: “Incrementar o tamanho de uma multa de censura não cura sua invalidez legal nos Estados Unidos.” O prazo para as representações terem passado sem conformidade, A Ofcom confirmou em 27 de fevereiro que estava referindo o assunto a um tomador de decisão final sob suas Diretrizes Online de Segurança. A evolução é sistemática: desde os pedidos de informação previstos na secção 100, até uma decisão de confirmação que impõe sanções, até uma segunda decisão provisória que visa os direitos substantivos de segurança do conteúdo e de verificação da idade da lei. Cada passo escalonatório amplia o escopo de cumprimento exigido e eleva a potencial exposição penal. Para uma plataforma anônima que opera exclusivamente nos Estados Unidos, a verificação da idade de um quadro de imagem anônimo não é um requisito técnico: é existencial.

O quadro nacional britânico de apelos para estas decisões continua a ser construído. Em 26 de fevereiro de 2026, o Comitê de Processo do Tribunal (TPC) abriu umconsultarelativa à alteração do Regulamento do Processo do Tribunal Superior, a fim de acomodar os novos direitos de recurso criados pela AOS. Nos termos da secção 168 da Lei, qualquer pessoa com interesse suficiente pode contestar as decisões de confirmação da Ofcom, os avisos de penalização e os avisos de tecnologia perante o Tribunal Superior. O TPC propõe provisoriamente uma janela de três meses para pedidos de autorização de recurso por pessoas interessadas que não são destinatários diretos de um aviso da Ofcom, partindo da preferência da Ofcom por um mês. Quanto aos custos, o TPC concorda com a proposta da Ofcom de deslocar a regra habitual de não custos, reconhecendo que o tribunal deve ter uma margem de apreciação mais ampla para atribuir custos em casos de AOS, dada a complexidade e a natureza provável dos recursos, e que a regra existente deixaria a Ofcom incapaz de recuperar custos, mesmo quando defende com êxito uma decisão. O Ofcom é um regulador com o poder de multar empresas centenas de milhões de libras, financiado por taxas cobradas sobre o próprio setor que regula, e agora está pedindo o direito de fazer qualquer um que o desafio no tribunal pagar as contas legais da Ofcom se perder. Aconsultafecha 21 de Maio de 2026.

Essa assimetria estrutural é o que a Lei GRANITE aborda diretamente. Conceptualizado por Byrne e introduzido na Legislatura Wyoming como HB 70, o "Direitos de Garantia Contra o Novel International Tyranny and Extortion Act" passou a Câmara dos Representantes Wyoming 46-12 em 23 de fevereiro de 2026. Ele despoja soberanos estrangeiros de imunidade nos tribunais estaduais dos EUA quando eles tentam impor ordens de censura contra pessoas dos EUA e cria um direito de ação privado com danos legais mínimos de US $ 1 milhão por violação, ou 10% da receita anual dos EUA do réu, o que for maior. Também impede que os tribunais de Wyoming reconheçam qualquer sentença estrangeira que infrinja o discurso constitucionalmente protegido, estendendo o modelo da Lei SPEECH (28 U.S.C. §§ 4101-4105) da difamação a toda a gama de expressão protegida pela Primeira Emenda. Se censurar um americano expõe um regulador estrangeiro a um julgamento civil suficientemente significativo, o cálculo custo-benefício muda dramaticamente.

Uma teoria jurídica americana separada opera através da Lei Sherman e não depende da superação da imunidade da FSIA. A defesa soberana da imunidade da Ofcom pode isolar o próprio regulador do processo direto, mas não estende proteção aos atores privados que moldaram o projeto regulatório da OSA. A OSA impõe obrigações nominais idênticas a todos os serviços regulamentados, mas os seus custos fixos de conformidade caem proporcionalmente muito mais em plataformas mais pequenas do que em grandes operadores históricos com equipas legais, técnicas e de conformidade existentes que podem simplesmente ser redirecionadas para satisfazer novos requisitos: um padrão que os economistas antitrust descrevem como aumentando os custos dos rivais. Por exemplo, nos casos em que os operadores históricos bem-recursos, em particular, coordenados com os reguladores para incorporarem normas de conformidade que possam satisfazer mais facilmente do que os seus concorrentes, o quadro resultante pode reflectir preferências competitivas em vez de uma avaliação regulamentar independente. EmbaixoContinental Ore Co. v. Union Carbide & Carbon Corp., encaminhar um esquema anticoncorrencial através de um aparelho governamental estrangeiro não imuniza os atores privados que o projetaram. A doutrina de Noerr-Pennington, que normalmente protege a atividade de petição, assenta em fundações da Primeira Emenda que protegem o direito de petição ao governo americano; o argumento jurídico mais forte é que não se estende à petição de reguladores estrangeiros. Nos casos em que o registo factual apoia a coordenação para além da defesa comum, as secções 1 e 2 da Lei Sherman continuam a dispor de instrumentos, mesmo quando o mecanismo regulamentar é britânico.

Se você se importa com a saúde mental e segurança das crianças online, existem três novas leis no Congresso que valem a pena saber sobre: A lei SAFE, a lei ECCHO e a lei Stop Sextortion (coletivamente conhecida como lei James T. Woods). Juntos, eles abordam danos reais e documentados de maneiras que a KOSA e a Lei de Segurança Online do Reino Unido, simplesmente não.

O pacote aborda três lacunas documentadas na lei federal.

  • O SEGURO A lei revoga as disposições de condenação da CSAM desactualizadas e orienta a Comissão de Sentença dos EUA a desenvolver orientações actualizadas que reflictam padrões modernos de conduta perigosa. Neste momento, as regras federais de condenação estão ultrapassadas e em grande parte ignoradas: menos de um em cada três casos são condenados no âmbito das orientações existentes. Este projeto de lei abriria caminho para a Comissão de Sentença dos EUA escrever novas regras atualizadas que refletem como o abuso online funciona hoje.

  • O ECCHO A Act cria um novo crime federal que visa as redes, mais notoriamente a Rede 764, que usa bate-papos em grupo online para coagir crianças emocionalmente vulneráveis a automutilação, suicídio e violência, com penas até prisão perpétua onde uma vítima morre ou tenta suicídio.

  • A Sextorção Parada A lei criminaliza explicitamente a sextorção pela primeira vez sob a lei federal, respondendo a um aumento de 33% em casos financeiramente motivados em 2024 e mais de 40 mortes de crianças ligadas a esses esquemas. Ao contrário da KOSA ou da OSA, o James T. Woods Ato não tenta policiar o que as pessoas dizem online. Eles visam o que os predadores fazem: coerção, chantagem e manipulação deliberada de crianças em perigo. Essa é uma distinção significativa, e é por isso que este pacote ganhou apoio de mais de duas dúzias de organizações em todo o espectro político, incluindo a Associação de Agentes do FBI, RAINN, a Associação Nacional de Advogados Distritais, o Centro Nacional de Crianças Desaparecidas e Exploradas e Thorn.

O caso moral contra a OSA e a KOSA não é que o bem-estar das crianças não seja importante. É que suprimir a fala protegida é tanto o instrumento errado como perigoso. O instrumento errado porque a ciência não estabelece que as mídias sociais causam os danos que essas leis abordam, e porque os filtros de conteúdo que implementam esses regimes não podem distinguir a fala benéfica de prejudicial. Um perigoso porque o mesmo mecanismo que bloqueia, por exemplo, os posts pró-anorexia também bloqueará o acesso às comunidades de recuperação de transtornos alimentares; o mesmo filtro que pega instruções de auto-prejuízo vai pegar fóruns de apoio trans jovens; e o mesmo regulador habilitado para definir o conteúdo “nocivo” hoje pode ser conduzido por alguém com ideias muito diferentes sobre o que o discurso é prejudicial amanhã. Acima de tudo, é perigoso porque a máquina de proteção, uma vez construída, não se limita ao seu alvo original: Os americanos japoneses foram internados após Pearl Harbour; muçulmanos foram vigiados, infiltrados e colocados em listas de não-voo após 11 de setembro, alguns renderizados para sites negros da CIA no exterior e outros torturados na Baía de Guantánamo sem acusação ou julgamento; conselhos de lealdade McCarthyite destruíram carreiras na base que a associação previu subversão; e o programa COINTELPRO do FBI virou o aparelho de segurança doméstica contra o movimento dos direitos civis, monitorando Martin Luther King Jr. como uma ameaça à segurança nacional sob o pretexto de suposta infiltração comunista. Em cada caso, o instrumento foi construído de boa-fé para enfrentar um medo genuíno; em cada caso, o raciocínio declarado era a correlação vestida de causa; e em cada caso, o mesmo equipamento institucional, uma vez normalizado, estava disponível para uso contra o próximo grupo uma futura administração considerada ameaçadora.

A tentativa da Ofcom de estender este regime ao solo americano aumenta ainda mais as estacas. Afirma, na verdade, que os reguladores britânicos podem determinar o que os americanos são autorizados a dizer na internet americana e que a lei americana não tem recurso. Não se trata de uma posição estável ao abrigo da Primeira Emenda, sob quaisquer princípios estabelecidos de jurisdição internacional ou sob qualquer concepção defensável de autogovernação democrática. A Lei GRANITE é o início da resposta do sistema jurídico americano.

Um breve pós-escrito. Enviei recentemente uma versão anterior deste artigo a um membro da Câmara dos Lordes que pediu para o ler. O filtro de correio electrónico do Parlamento bloqueou-o. Repetidamente. O par não podia abrir o anexo porque o sistema o indicava como suspeito. O artigo, com o título de trabalho «What the Filter Catches», foi ele próprio apanhado por um filtro. Não poderia ter pedido uma melhor ilustração do argumento. Às vezes, o mundo faz o trabalho por ti.

Nota: O autor apresentou pedidos de Liberdade de Informação ao Departamento de Estado dos EUA, ao Departamento de Justiça, ao Conselho de Segurança Nacional, ao Federal Bureau of Investigation, à Federal Trade Commission, ao UK ICO, bem como à própria Ofcom buscando documentos relativos à estratégia de aplicação extraterritorial da Ofcom. Esses pedidos permanecem pendentes.

Please log in to post comments:  
Login with Google