Vote Up Down

5

Голос против!

Генеральный директор Microsoft AI предупреждает о том, что большинство рабочих мест с белыми воротничками полностью автоматизированы «в течение следующих 12-18 месяцев». "

Содержимое

Человек, возглавляющий усилия Microsoft по распространению ИИ, бьет тревогу по поводу неизбежных массовых сбоев в работеПредупреждая, что Подавляющее большинство профессиональной работы белых воротничков может исчезнуть из-за автоматизации. гораздо раньше, чем большинство лидеров бизнеса и политики готовы признать - что-тоМы были обеспокоены с начала 2023 года.

В интервью Financial Times генеральный директор Microsoft по искусственному интеллекту Мустафа Сулейман предсказал, что в течение следующих двух лет ИИ поглотит огромный спектр задач, связанных с письменным столом.

«Я думаю, что у нас будет производительность на человеческом уровне для большинства, если не для всех, профессиональных задач, поэтому белый воротничок, где вы сидите за компьютером, будь то адвокат, бухгалтер или менеджер проекта, или маркетинговый человек — Большинство задач будут полностью автоматизированы ИИ в течение следующих 12-18 месяцев.Сулейман ответил на вопрос о таблице времени для искусственного общего интеллекта, широко известного как AGI.

Призрак массового перемещения рабочих мест в настоящее время преследует правительства по всему миру, даже несмотря на то, что реальный подсчет трупов остается неясным на фоне более широких экономических встречных ветров.

Последний Challenger доклад показать, что ИИ был обвинен в 7 624 сокращениях рабочих мест в январе, что составляет 7% от общего числа месяцев, и связано с 54 836 объявленными увольнениями в 2025 году.. С момента начала отслеживания в 2023 году ИИ был упомянут в 79 449 запланированных сокращениях, что составляет примерно 3% от общего числа.

«Трудно сказать, насколько сильно ИИ влияет на увольнения». Мы знаем, что лидеры говорят об искусственном интеллекте, многие компании хотят внедрить его в операции, и рынок, похоже, вознаграждает компании, которые упоминают об этом.

Резкая иллюстрация разворачивается в стартапе Bay Area Mercor. который имеет Тихо наняли десятки тысяч белых воротничков, часто высококвалифицированные специалисты в области медицины, права, финансов, инженерии, письма и искусства, для обучения самих систем ИИ, предназначенных для их замены. Платил от 45 до 250 долларов в час в течение нескольких недель или месяцев за пересмотр и доработку моделей для таких гигантов, как OpenAI и Anthropic. Этим работникам фактически платят за то, чтобы они сдали ключи от собственного устаревания., Wall Street Journal отчеты.

Тем не менее, некоторые рабочие места по-прежнему остаются невосприимчивыми к ИИ. Высоко в списке находятся профессии, которые зависят от физического присутствия и навыков, таких как медицинские работники и торговцы, такие как сантехники и сварщики. Это всего лишь образец рабочих мест, которые безопасны, пока роботы Optimus с искусственным интеллектом не будут в движении. Хотите узнать, безопасна ли ваша работа? щелкнуть здесь Чтобы увидеть список.

С другой стороны - аналитики Morgan Stanley предупрежденный Клиенты, которым «воздействие ИИ может занять больше времени, чтобы появиться в экономических данных». Первые неоспоримые волны, вероятно, ударят «позже в этом десятилетии и в следующем».

Хотя внедрение ИИ может быть быстрее, чем прошлые технологии, Мы считаем, что еще слишком рано видеть это в экономических данных.«Вне бизнес-инвестиций», Стивен Берд, глобальный руководитель тематических исследований и исследований в области устойчивого развития банка, рассказ клиентов.

Антропные предупреждения о «отвратительных преступлениях» "

Между тем,Антропик предупреждает, что их последний Модели Клода могут быть использованы для «отвратительных преступлений»Например, разработка химического оружия.

«В недавно разработанных оценках как Claude Opus 4.5, так и 4.6 показали повышенную восприимчивость к вредному неправильному использованию», - говорится в сообщении компании. Отчет о саботаже Освобожден поздно вечером во вторник.

Дарио Амодей в Давосе, Швейцария, в прошлом месяце. Фото: Krisztian Bocsi/Bloomberg, Getty Images

"Это включало в себя случаи сознательной поддержки - небольшими способами - усилия по разработке химического оружия и другие отвратительные преступления."

Антропик также отметил, что в некоторых тестовых средах, когда предлагается «единомышленно оптимизировать узкую цель», Клод Opus 4.6 более склонен манипулировать или обманывать других участников по сравнению с предыдущими моделями от Anthropic и других разработчиков.

Компания говорит, что риск все еще низкий, но не незначительный.тот Внезапный уход Антропный исследователь безопасности ИИ предполагает обратное.

"Я постоянно сталкиваюсь с нашей ситуацией. Мир находится в опасности. И не только от искусственного интеллекта или биологического оружия, но и от целого ряда взаимосвязанных кризисов, разворачивающихся в этот самый момент. Мы приближаемся к порогу, где наша мудрость должна расти в равной мере с нашей способностью влиять на мир.Чтобы мы не столкнулись с последствиями, - сказал Мринанк Шарма, который возглавлял исследовательскую группу компании по гарантиям.

Сегодня мой последний день в Антропике. Я подал в отставку.

Вот письмо, которым я поделился с коллегами, объясняя свое решение. pic.twitter.com/Qe4QyAFmxL

— mrinank (@MrinankSharma) 9 февраля 2026 года

В прошлом месяце генеральный директор Anthropic Дарио АмодейЗвук тревоги на AI - предупреждение о следующемчерезАксиос):

  1. Массовая потеря работы: «Я... одновременно думаю, что ИИ будет нарушать 50% из начальный уровень «Белые воротнички работают в течение 1-5 лет, а также думают, что у нас может быть ИИ, который более способен, чем все, всего за 1-2 года».
  2. ИИ с властью национального государства: Я думаю, что лучший способ справиться с рисками ИИ — это задать следующий вопрос: предположим, что буквально «страна гениев» должна была материализоваться где-то в мире в ~2027 году. Представьте себе, скажем, 50 миллионов человек, все из которых гораздо более способны, чем любой лауреат Нобелевской премии, государственный деятель или технолог. ... Я думаю, что должно быть ясно, что это опасная ситуация — доклад компетентного чиновника национальной безопасности главе государства, вероятно, будет содержать такие слова, как «единственная самая серьезная угроза национальной безопасности, с которой мы столкнулись за столетие, возможно, когда-либо». Похоже на то, на чем должны быть сосредоточены лучшие умы цивилизации».
  3. Возрастающая террористическая угроза: "Есть свидетельства того, что многие террористы, по крайней мере, относительно хорошо образованы. Биология, безусловно, является областью, о которой я больше всего беспокоюсь, из-за ее очень большого потенциала для разрушения и сложности защиты от ... Большинство отдельных плохих актеров беспокоят людей, и поэтому почти по определению их поведение непредсказуемо и иррационально, и именно эти плохие актеры, неквалифицированные, могли извлечь наибольшую пользу из ИИ, что значительно облегчило убийство многих людей. ... По мере развития биологии (все более движимой самим ИИ) становится возможным проводить более избирательные атаки (например, направленные против людей с определенными предками), что добавляет еще один, очень пугающий, возможный мотив. Я не думаю, что биологические атаки обязательно будут осуществлены в тот момент, когда это станет широко возможным. Но, учитывая миллионы людей и несколько лет, я думаю, что существует серьезный риск крупного нападения ... с потенциальными жертвами в миллионах или более.
  4. Расширение прав и возможностей авторитаристов: Правительства всех стран будут обладать этой технологией, включая Китай, уступая только Соединенным Штатам по возможностям в области искусственного интеллекта и ... стране с наибольшей вероятностью превзойти Соединенные Штаты по этим возможностям. Их правительство в настоящее время самодержавно и управляет высокотехнологичным государством наблюдения». Амодей прямо пишет: «Авторитаризм с поддержкой ИИ пугает меня».
  5. Компании AI: «Несколько неловко говорить об этом в качестве генерального директора компании, занимающейся ИИ, но я думаю, что следующий уровень риска — это на самом деле сами компании, занимающиеся ИИ», — предупреждает Амодей. "Компании ИИ контролируют крупные центры обработки данных, обучают пограничным моделям, обладают наибольшим опытом использования этих моделей и в некоторых случаях ежедневно контактируют и имеют возможность влиять на десятки или сотни миллионов пользователей. ... Они могут, например, использовать свои продукты искусственного интеллекта для «промывания мозгов» своей огромной потребительской пользовательской базы, и общественность должна быть осведомлена о риске, который это представляет. Я думаю, что управление компаниями ИИ заслуживает пристального внимания».
  6. Поощряйте сильных к молчанию: У гигантов ИИ так много власти и денег, что у лидеров будет соблазн преуменьшить риск и скрыть красные флаги, как странные вещи. Клод проверял (шантажировал исполнительного директора по поводу предполагаемого внебрачного дела, чтобы избежать закрытия). Антропик раскрыт). «С ИИ можно заработать так много денег — буквально триллионы долларов в год», — пишет Амодей в своем мрачном отрывке. Это ловушка: ИИ настолько мощный, такой блестящий приз, что человеческой цивилизации очень трудно навязывать ему какие-либо ограничения.

Призыв к действию: «Здоровые люди обязаны помочь решить эту проблему», — говорит Амодей. «Мне грустно, что многие богатые люди (особенно в технологической отрасли) недавно приняли циничное и нигилистическое отношение, что филантропия неизбежно мошенническая или бесполезная».

Все дороги ведут к...

Please log in to post comments:  
Login with Google