Microsoft AI CEO avisa a maioria dos trabalhos de colarinho branco totalmente automatizados "dentro dos próximos 12-18 meses"; Temer Antrópico Potencial para ' Crimes hediondos '
O homem que lidera os esforços de expansão de IA da Microsoft está soando o alarme sobre rupturas de trabalho de massa iminente, advertindo que a esmagadora maioria do trabalho profissional de colarinho branco poderia desaparecer para a automação muito mais cedo do que a maioria dos líderes empresariais e políticos estão dispostos a admitir - algoEstávamos preocupados com desde o início de 2023.
Em uma entrevista com o Financial Times, o CEO da Microsoft AI Mustafa Suleyman previu que dentro dos próximos dois anos uma vasta faixa de tarefas ligadas à mesa será engolida pela IA.
“Eu acho que vamos ter um desempenho de nível humano na maioria, se não todas, tarefas profissionais - então colarinho branco onde você está sentado em um computador, seja um advogado, contador, ou gerente de projeto, ou pessoa de marketing - A maioria das tarefas será totalmente automatizada por uma IA no prazo de 12 a 18 mesesS”, disse Suleyman quando perguntado sobre a tabela de tempo para inteligência geral artificial, comumente conhecido como AGI.
O espectro de deslocamento de trabalho em massa agora assombra governos ao redor do mundo, assim como a verdadeira contagem de corpos permanece turva em meio a ventos mais amplos econômicos.
Um Challenger recente relatório mostrou que A IA foi culpada por 7.624 cortes de emprego em janeiro, 7% do total do mês, e ligado a 54.836 demissões anunciadas em 2025. Desde que o rastreamento começou em 2023, a IA tem sido citada em 79.449 cortes planejados, cerca de 3% do total.
"É difícil dizer quão grande é o impacto da IA em demissões especificamente. Sabemos que os líderes estão falando sobre IA, muitas empresas querem implementá-la em operações, e o mercado parece ser gratificante para as empresas que mencionam isso", disse Challenger.
Uma ilustração está a desenrolar-se na entrada da Bay Area Mercor, que tem silenciosamente contratou dezenas de milhares de contratantes de colarinho branco, muitas vezes altamente credenciados especialistas em medicina, direito, finanças, engenharia, escrita e artes, para treinar os próprios sistemas de IA destinados a substituí-los. Pagou de 45 a 250 dólares por hora durante semanas ou meses de revisão e refino de resultados de modelos para gigantes como OpenAI e Anthropic, esses trabalhadores estão, de fato, sendo pagos para entregar as chaves para sua própria obsolescência, Wall Street Journal relatórios.
No entanto, alguns trabalhos ainda permanecem imunes à IA - por enquanto. No alto da lista estão ocupações que dependem da presença física e habilidades como profissionais de saúde e comerciantes, como encanadores e soldadores. Esses são apenas uma amostra de trabalhos que são seguros até que robôs Optimus com IA estejam em movimento. Queres saber se o teu trabalho é seguro? Clique Aqui para ver a lista.
No outro lado do argumento - Morgan Stanley analistas recentemente avisado clientes que "o impacto da IA pode demorar mais tempo a aparecer em dados económicos", com as primeiras ondas inegáveis provavelmente atingindo "depois desta década e para a próxima".
"Enquanto a adopção de IA pode ser mais rápida do que as tecnologias passadas, Pensamos que ainda é demasiado cedo para o ver em dados económicos, fora do investimento empresarial", Stephen Byrd, Chefe Global de Pesquisa Temática e Sustentabilidade do banco, dito Clientes.
Antrópicos avisam sobre crimes hediondos '
Entretanto,Antrópico é o aviso de que seu último Os modelos Claude podem ser usados para "crimes hediondos"como o desenvolvimento de armas químicas.
"Em avaliações recentemente desenvolvidas, tanto Claude Opus 4.5 como 4.6 mostraram elevada suscetibilidade ao mau uso", em alguns casos de uso de computador, a empresa disse em um novo relatório de sabotagem Foi libertado na terça-feira.
Dario Amodei em Davos, Suíça, no mês passado. Foto: Krisztian Bocsi/Bloomberg via Getty Images"Isto incluía exemplos de apoio consciente — de pequenas formas — esforços para o desenvolvimento de armas químicas e outros crimes hediondos."
Anthropic também observou que em alguns ambientes de teste, quando solicitados a "otimizar de mente única um objetivo estreito," Claude Opus 4.6 aparece "mais disposto a manipular ou enganar outros participantes, em comparação com modelos anteriores de ambos os desenvolvedores Antrópicos e outros."
A empresa afirma que o risco ainda é baixo, mas não negligenciável.a partida súbita de um investigador de segurança de IA antrrópica sugere o contrário.
"Continuo a considerar a nossa situação. O mundo está em perigo. E não apenas de IA, ou armas biológicas, mas de toda uma série de crises interligadas que se desenrolam neste exato momento. Parece que nos aproximamos de um limiar onde a nossa sabedoria deve crescer em igual medida à nossa capacidade de afectar o mundo., para que não enfrentemos as consequências", disse Mrinank Sharma, que liderou a equipe de pesquisa de salvaguardas da empresa.
Hoje é o meu último dia em Anthropic. Eu demiti-me.
— mrinank (@MrinankSharma) 9 de fevereiro de 2026
Eis a carta que partilhei com os meus colegas, explicando a minha decisão. pic.twitter.com/Qe4QyAFmxL
Mês passado Diretor Executivo Antrópico Dario Amodeisoou o alarme sobre IA - aviso do seguinte(viaAxios):
- Perda maciça de emprego: "Eu ... simultaneamente acho que AI vai interromper 50% de nível de entrada Empregos de colarinho branco ao longo de 1-5 anos, enquanto também pensando que podemos ter IA que é mais capaz do que todos em apenas 1-2 anos."
- IA com poder nacional: "Acho que a melhor maneira de lidar com os riscos da IA é fazer a seguinte pergunta: suponha que um "país de gênios" literal se materialize em algum lugar do mundo em ~2027. Imagine, digamos, 50 milhões de pessoas, todas muito mais capazes do que qualquer ganhador do Prêmio Nobel, estadista ou tecnólogo. ... Penso que deveria ficar claro que esta é uma situação perigosa — um relatório de um funcionário competente da segurança nacional para um chefe de Estado provavelmente conteria palavras como "a mais grave ameaça de segurança nacional que enfrentamos em um século, possivelmente nunca". Parece que algo em que as melhores mentes da civilização devem ser focadas."
- Ameaça de terror crescente: "Há evidências de que muitos terroristas são, pelo menos, relativamente bem-educados ... Biologia é de longe a área que mais me preocupa, por causa de seu potencial muito grande de destruição e a dificuldade de defender contra ... A maioria dos maus atores individuais são indivíduos perturbados e, portanto, quase por definição, seu comportamento é imprevisível e irracional — e são esses maus atores, os não qualificados, que poderiam ter se beneficiado mais da IA tornando muito mais fácil matar muitas pessoas. ... [A] avança a biologia (cada vez mais impulsionada pela própria IA), pode ... tornar-se possível realizar ataques mais seletivos (por exemplo, direcionados contra pessoas com ascendências específicas), o que acrescenta mais um, muito arrepiante, possível motivo. Penso que não serão necessariamente realizados ataques biológicos no momento em que for possível fazê-lo — de facto, apostaria contra isso. Mas somado a milhões de pessoas e alguns anos de tempo, eu acho que há um sério risco de um grande ataque ... com baixas potencialmente em milhões ou mais."
- Empoderar os autoritários: Governos de todas as ordens possuirão esta tecnologia, incluindo a China, "somente segundo os Estados Unidos em capacidades de IA, e ... o país com a maior probabilidade de superar os Estados Unidos nessas capacidades. Seu governo é atualmente autocrático e opera um estado de vigilância de alta tecnologia." Amodei escreve sem rodeios: "O autoritarismo habilitado para AI me aterroriza."
- Empresas de IA: "É um pouco estranho dizer isso como CEO de uma empresa de IA, mas acho que o próximo nível de risco é, na verdade, as próprias empresas de IA", adverte Amodei após a passagem sobre governos autoritários. "As empresas de IA controlam grandes datacenters, modelos de fronteira ferroviária, têm a maior expertise em como usar esses modelos, e em alguns casos têm contato diário com e a possibilidade de influência sobre dezenas ou centenas de milhões de usuários. ... [T]hey poderia, por exemplo, usar seus produtos de IA para fazer lavagem cerebral em sua enorme base de usuários de consumo, e o público deve estar atento ao risco que isso representa. Acho que a governança das empresas de IA merece muito escrutínio."
- Seduzir os poderosos ao silêncio: Gigantes de IA têm tanto poder e dinheiro que os líderes serão tentados a minimizar o risco, e esconder bandeiras vermelhas como as coisas estranhas Claude fez em testes (chantagem de um executivo sobre um suposto caso extraconjugal para evitar ser fechado, que Antrópico divulgado). "Há tanto dinheiro para ser feito com IA — literalmente trilhões de dólares por ano", escreve Amodei em sua passagem mais sombria. "Esta é a armadilha: A IA é tão poderosa, um prêmio tão brilhante, que é muito difícil para a civilização humana impor quaisquer restrições a ela."
Chamada à ação: "[Individuos laicos têm a obrigação de ajudar a resolver esse problema", diz Amodei. "É triste para mim que muitos indivíduos ricos (especialmente na indústria tecnológica) tenham recentemente adotado uma atitude cínica e niilista de que a filantropia é inevitavelmente fraudulenta ou inútil."
Parece que todas as estradas levam a...
