El CEO de Microsoft AI advierte a la mayoría del Collar Blanco Trabajos Fully Automated "In Next 12-18 Meses"; Antropopic Tears Potential for 'Heinous Crimes '
El hombre que lidera los esfuerzos de IA de Microsoft está sonando la alarma sobre las perturbaciones inminentes del trabajo en masa, advirtiendo eso la abrumadora mayoría del trabajo profesional de cuello blanco podría desaparecer a la automatización mucho antes que la mayoría de los líderes de negocios y políticas están dispuestos a admitir - algohemos estado preocupados por desde principios de 2023.
En una entrevista con el Financial Times, el CEO de Microsoft AI, Mustafa Suleyman, pronosticó que dentro de los próximos dos años se tragará una gran cantidad de tareas relacionadas con el escritorio por AI.
“Creo que vamos a tener un desempeño a nivel humano en la mayoría, si no todo, tareas profesionales - tan blanco cuello donde usted está sentado en una computadora, ya sea siendo un abogado, contador, o gerente de proyecto, o persona de marketing - la mayoría de las tareas serán totalmente automatizadas por una AI en los próximos 12 a 18 mesess”, dijo Suleyman cuando se le preguntó acerca de la tabla de tiempo para la inteligencia general artificial, comúnmente conocida como AGI.
El espectro de desplazamientos masivos de empleo ahora persigue a los gobiernos de todo el mundo, incluso cuando el verdadero recuento de cuerpos sigue siendo sombrío en medio de vientos económicos más amplios.
Un Challenger reciente informe mostró que AI fue culpado por 7.624 recortes de trabajo en enero, el 7% del total del mes, y vinculado a 54.836 despidos anunciados en 2025. Desde que el seguimiento comenzó en 2023, AI se ha citado en 79.449 cortes previstos, aproximadamente 3% del total.
"Es difícil decir lo grande que tiene una IA en los despidos específicamente. Sabemos que los líderes están hablando de AI, muchas empresas quieren implementarlo en operaciones, y el mercado parece ser empresas recompensadoras que lo mencionan", dijo Challenger.
Una ilustración estelar se desarrolla en la startup de Bay Area Mercor, que tiene Contrató a decenas de miles de contratistas de color blanco, a menudo altamente credenciales de especialistas en medicina, derecho, finanzas, ingeniería, escritura, y las artes, para formar los mismos sistemas AI destinados a reemplazarlos. Pagó $45 a $250 por hora durante semanas o meses de revisión y refinación de productos modelo para gigantes como OpenAI y Antrópico, estos trabajadores están, en efecto, siendo pagados para entregar las llaves a su propia obsolescencia, el Wall Street Journal informes.
Sin embargo, algunos trabajos siguen siendo inmunes de la AI - por ahora. Alto en la lista ocupaciones que se extienden sobre presencia física y habilidades como profesionales de la salud y comerciantes como fontaneros y soldadores. Esos son sólo una muestra de empleos que son seguros hasta que los robots Optimus propulsados por AI están en movimiento. ¿Quieres saber si tu trabajo es seguro? Haga clic Aquí. para ver la lista.
Al otro lado del argumento - analistas de Morgan Stanley recientemente advirtió clientes que "los impactos de AI pueden tardar más en aparecer en datos económicos", con las primeras ondas innegables probablemente golpeando "más tarde esta década y más adelante".
"Aunque la adopción de AI puede ser más rápida que las tecnologías pasadas, creemos que todavía es demasiado pronto para verlo en datos económicos, fuera de la inversión empresarial", Stephen Byrd, el Jefe Global de Investigación Temática y Investigación de Sostenibilidad del banco, # clientes.
Crímenes Antrópicos sobre "Crímenes Heinosos" '
Mientras tanto,Antrópico está advirtiendo que su último Los modelos de Claude podrían utilizarse para "crimenes odiosos"como el desarrollo de armas químicas.
"En las evaluaciones recién desarrolladas, tanto Claude Opus 4.5 como 4.6 mostraron una elevada susceptibilidad al mal uso dañino", dijo la empresa en algunos casos de uso informático, informe de sabotaje Liberado el martes pasado.
Dario Amodei en Davos, Suiza, el mes pasado. Foto: Krisztian Bocsi/Bloomberg via Getty Images"Esto incluyó casos de apoyo conscientemente —de pequeñas maneras— esfuerzos para el desarrollo de armas químicas y otros crímenes atroces."
Antrópico también señaló que en algunos ambientes de prueba, cuando se le incitaba a "mejorar mentalmente optimizar un objetivo estrecho", Claude Opus 4.6 aparece "más dispuesto a manipular o engañar a otros participantes, en comparación con los modelos anteriores tanto de Antrópicos como de otros desarrolladores".
La compañía dice que el riesgo es todavía bajo pero no insignificante, sin embargoel Salida repentina de un investigador de seguridad Antrhropic AI sugiere lo contrario.
"Siempre me encuentro con nuestra situación. El mundo está en peligro. Y no sólo de AI, o de armas biológicas, sino de toda una serie de crisis interconectadas que se desarrollan en este mismo momento. Parece que nos acercamos a un umbral donde nuestra sabiduría debe crecer en igual medida a nuestra capacidad para afectar al mundo, para que no enfrentemos las consecuencias", dijo Mrinank Sharma, quien dirigió el equipo de investigación de salvaguardias de la compañía.
Hoy es mi último día en Antrópico. Renuncié.
— mrinank (@MrinankSharma) 9 de febrero de 2026
Aquí está la carta que compartí con mis colegas, explicando mi decisión. pic.twitter.com/Qe4QyAFmxL
El mes pasado, CEO de Anthropic Dario Amodeisonó la alarma on AI - warning of the following(via)Axios):
- Pérdida de trabajo masiva: "Yo... simultáneamente pienso que AI Interruptor del 50% de nivel de entrada empleos de cuello blanco durante 1–5 años, mientras que también pensamos que podemos tener AI que es más capaz que todos en sólo 1–2 años."
- AI con poder estatal nacional: "Creo que la mejor manera de manejar los riesgos de IA es hacer la siguiente pregunta: supongamos que un "país de genios" literal era materializar en algún lugar del mundo en ~2027. Imagínese, digamos, 50 millones de personas, que son mucho más capaces que cualquier ganador del Premio Nobel, estadista o tecnólogo. ... Creo que debe ser claro que esta es una situación peligrosa: un informe de un funcionario de seguridad nacional competente a un jefe de estado probablemente contendría palabras como 'una amenaza de seguridad nacional más grave que hemos enfrentado en un siglo, posiblemente nunca.' Parece que algo en lo que las mejores mentes de la civilización deben enfocarse."
- El aumento de la amenaza terrorista: "Hay pruebas de que muchos terroristas están por lo menos relativamente bien educados... La biología es por lejos el área que más me preocupa, debido a su gran potencial de destrucción y la dificultad de defender contra ... La mayoría de los actores malos individuales son individuos perturbados y por lo tanto casi por definición su comportamiento es impredecible e irracional — y son estos malos actores, los no calificados, que podrían haber estado para beneficiar al máximo de la IA haciendo mucho más fácil matar a muchas personas. ... [A]s avances de la biología (aumento impulsado por la propia AI), puede ... llegar a ser posible llevar a cabo ataques más selectivos (por ejemplo, dirigidos contra personas con antepasados específicos), que añade otro, muy escalofriante, posible motivo. No creo que los ataques biológicos se lleven a cabo necesariamente en el momento en que se hace ampliamente posible hacerlo, de hecho, apostaría en contra de eso. Pero sumado a través de millones de personas y algunos años de tiempo, creo que hay un riesgo serio de un ataque importante... con bajas potencialmente en millones o más".
- Empoderando a los autoritarios: Los gobiernos de todos los pedidos poseen esta tecnología, incluyendo a China, "segundo a los Estados Unidos en capacidades de inteligencia artificial, y... el país con mayor probabilidad de superar a Estados Unidos en esas capacidades. Su gobierno es actualmente autocrítico y opera un estado de vigilancia de alta tecnología". Amodei escribe contundentemente: "El autoritarismo habilitado por la IA me aterroriza".
- AI companies: "Es algo incómodo decir esto como el CEO de una empresa AI, pero creo que el siguiente nivel de riesgo es en realidad las propias empresas AI", advierte Amodei después del pasaje sobre gobiernos autoritarios. "Las compañías de AI controlan grandes centros de datos, entrenan modelos fronterizos, tienen la mayor experiencia en cómo utilizar esos modelos, y en algunos casos tienen contacto diario con y la posibilidad de influir sobre decenas o cientos de millones de usuarios. ... [T]hey podría, por ejemplo, utilizar sus productos AI para lavar el cerebro de su base de usuarios de consumo masivo, y el público debe estar alerta al riesgo que esto representa. Creo que la gobernanza de las empresas AI merece mucho escrutinio."
- Seducir al poderoso al silencio: Los gigantes de AI tienen tanto poder y dinero que los líderes serán tentados a minimizar el riesgo, y ocultar banderas rojas como las cosas raras Claude lo hizo en pruebas (relatar a un ejecutivo sobre un supuesto asunto extramatrimonial para evitar ser cerrado, que Antrópico revelado). "Hay tanto dinero que se puede hacer con AI, literalmente billones de dólares al año", escribe Amodei en su pasaje más débil. "Esta es la trampa: la IA es tan poderosa, un premio tan brillante, que es muy difícil para la civilización humana imponer cualquier moderación en ella."
Call to action: "[W]ealthy individuals have an obligation to help solve this problem", dice Amodei. "Es triste para mí que muchos individuos ricos (especialmente en la industria tecnológica) hayan adoptado recientemente una actitud cínica y nihilística que la filantropía es inevitablemente fraudulenta o inútil".
Parece que todos los caminos conducen a...
