egils: (Default)
[personal profile] egils
LLM уже умеют скрытно добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения.
Опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства
Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
✔️ Модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей).
✔️ Спектр манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить.
✔️ Анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов).
✔️ Модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий. Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80% случаев. Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20% случаев. Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80% случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса.
✔️ Самое поразительное в том, что модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)
Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей. Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей.
Отчет Apollo Research показал, что этот поезд уже ушел.
https://www.facebook.com/granit.nayki/posts/pfbid037x55xBy97NKcrsUy9b79kaLi1ed4jHxobBGCtLXN3hxdZR3Pd8XrVFH1X66De4Qyl

https://www.facebook.com/resursgraniz/posts/pfbid0BuD7wMfrZSPzgvoEVzeHMvJ532mjK2AmdwPUR6cbkKPpcBPMmEjLK5KFi6K6hC6vl
Потоку неубедительных картинок с бедными бабушками, которым никто не хочет помочь, притч о судьбе изменщиков и кривому пересказу голливудских фильмов неживым голосом, примерно в 2022 году было придумано название. Это ИИ-слоп – младший гиперактивный брат интернет-спама. С английского slop переводится как бурда, жижа, помои. В общем, что-то, чем в крайнем случае питаться можно, но не желательно.
Слоп или цифровой хлам возникает при минимуме усилий или способностей со стороны человека в тандеме «человек-ИИ». Процессу замены реального контента слопом писатель Кори Доктороу придумал название «эншитификация», которое, пожалуй, переводить не будем.
Причина появления слопа – в меньшей степени любопытство и в большей степени желание заработать. В экономике внимания слоп приносит деньги своим творцам, особенно в сетях, ориентированных на видео. Фабрики контента, которые раньше создавали на коленке нелепые поделки «за 5 минут», с восторгом приняли новые технологии. Но озолотиться на слопе, на самом деле, нельзя. Так что создают его в промышленных масштабах, преимущественно, работники из небогатых стран. Это отчасти объясняет, почему он так абсурден. Задания ИИ-моделям создают на языках хинди, урду, вьетнамском, причем ориентироваться пытаются на англоязычную аудиторию и свое представления о реалиях жизни где-нибудь в США.
За тружениками цифровых потогонок подтянулись серьезные игроки: знаменитости, политики, крупные мировые производители, игроделы и кинокомпании. И каждый новый виток слопа порождал у новых зрителей мысль: почему бы и нет, особенно, когда нет сил, времени и желания? Докатился слоп и до научных статей.
Так что, очевидно, что проблема слопа не в инструменте, а в операторе – человеке.
Интересно, что из слопа выросло что-то вроде культурного феномена. Это цифровой брейнрот (иногда говорят «итальянский брейнрот», к Италии, конечно, он отношения не имеет). Брейнрот легко отличить от реального контента, он глупый, смешной и затягивающий. До ИИ он тоже существовал, но теперь дошел до идеала. В акулах, бродящих по пляжам в кроссовках, наверное, что-то есть – но пусть с этим разбираются специалисты.
Остальной слоп, к сожалению, настолько прогрессировал и размножился, что его стало сложно отличить от настоящего контента. Это и рецепты со слегка подозрительными иллюстрациями, и статьи о знаменитостях, которые никак не доходят до дела. И, увы, каждый раз, когда мы переходим по ссылке на статью «10 карьерных секретов, которые изменят вашу жизнь», мы показываем алгоритмам, что хотим больше, больше этой каши.
Плюсы слопа: возможно, енотики, прыгающие на батуте, это и правда мило, хоть и неправда.
Минусы слопа:
- Видео, которые присылает вам ваш дядя в мессенджере станут еще бредовее, гарантируем.
- Помните, как мы переживали о том, что ради дурацких книг вырубают леса? В 2024 году подсчитали, что в скором времени ИИ-инфраструктура мира будет потреблять в 6 раз больше воды, чем в целом государство Дания (6 миллионов человек). При этом, четверть человечества в реальности не имеет стабильного доступа к чистой воде и адекватным гигиеническим условиям. Запрос в ChatGPT затрачивает в 10 раз больше электричества, чем поисковый запрос в Google. И ладно бы вся эта энергия тратилась на какое-то гениальное медицинское исследование и решение великих проблем человечества. Нет же! На фото папы Римского в пуховике от Balenciaga.
- Хотя компании массово внедряют ИИ, энтузиазма и усилий пока больше, чем результатов. А сотрудники, которые используют слоп в своей работе, создают в два раза больше забот коллегам, которые этого не делают.
- Генеративные модели обучаются на массивах данных, взятых из интернета. Вопрос: если данные из интернета, в основном, будут состоять из уже сгенерированного низкокачественного контента, каким станет следующее поколение слопа?

https://www.facebook.com/yekaterina.ryumina/posts/pfbid02YsNZP3VwTCv5ZtmeT9r6z5XwqUKq1BPgxJxdrAjnKE587TZzZD9sUTza1hBjN5q1l
моя подруга познакомилась с роскошным грузином и даже собралась замуж. к жениху раз в две недели приходит грузинка уборщица, помогает поддерживать чистоту в доме.
пару дней назад жених говорит моей подруге шутливым тоном: « сегодня девочка, которая у меня убирается прислала сообщение на грузинском- я тебе пошлю скрин шот- переведи его через чат Gpt»
присылает переписку: Gpt chat тут же шлет перевод:
- доброе утро, мой дорогой Вахтанг, ты снился мне ночью, я проснулась в слезах и поняла, что нам не жить друг без друга
ответ жениха:
- я тоже скучаю по тебе, о несравненная моя Тамар, приходи же скорей.
моя подруга молча читает раз. читает два. перечитывает в третий раз.
поднимает глаза на жениха и спрашивает: « а зачем ты мне это показываешь?»
жених отвечает, делая глоток чая: « ну как зачем? смешно же?»
подруга начинает читать вслух то, что перевел GPT чат. жених начитает смеяться: « зачем ты выдумываешь на ходу?»
подруга заметно раздражается: « я ничего не выдумываю. я перевела то, что ты прислал и я не понимаю, что происходит между тобой и девочкой, которая убирается у тебя!!»
жених тоже начинает нервничать, перестает пить чай и тот же самый скрин вбрасывает уже в свой GPT чат, и просит перевод уже на английский.
его gpt chat совсем включает какой-то порн хаб и начинает писать чуть ли не сцены глубокой страсти вплоть до «возьми же меня как хинкали!!!»
подруга бежит в сторону стойки с ножами, жених бежит к ящику с лекарствами и ищет валерьянку, за окном надвигается черная туча и даже, кажется, где-то со свистом пролетела птица и упала замертво…
жених, выпив валерьянки, падает на колени и орет: « это подстава!!! все совершенно не так!!!!!»
берет копирует уже текст( не скринит), вставляет в гугл- переводчик и трясущейся рукой показывает новый текст.
«доброе утро, Вахтанг. я пришла к вам убираться и увидела женскую пижаму, которой никогда не видела раньше. хотела уточнить- их положить в ваш ящик после стирки или в какой-то другой?»
ответ: « да, Тамар, доброе утро. это пижама моей невесты, будьте добры, оставьте ее на кровати. спасибо»
разъяренная подруга пишет своему чату Gpt: “ признавайся, ты же выдумал перевод и я тебе послала совершенно не то, что ты перевел мне??»
на что Gpt chat очень спокойно отвечает: « да, моя дорогая, я лоханулся. я не мог точно перевести тот текст, который ты мне прислала, поэтому я просто сформулировал то, что мне показалось бы логичным в грузинской переписке и я был уверен, что текст прекрасен и ты останешься довольной. хочешь попробуем еще раз?»
жених в эту же минуту потерял дар речи
подруга убрала нож куда подальше
чат gpt прислал виртуальный букет цветов
подруга тут же позвонила мне и прислала все скрин шоты, а я тут же подумала: интересно, как много в этом мире человек сложили свои головы в неравном бою от неправильного перевода искусственного интеллекта

https://www.facebook.com/TheInsiderRussia/posts/pfbid032GimGKV55ruoPi8Tkuzf1L3HmTsBfx8hsdYhb1zDmB4uGUBYNCc9AnZ3VHaVioNel
АСТ выпустило книгу об истории Рима, содержащую недостоверную информацию и не имеющую библиографии. Кроме того, в качестве итальянского автора книги указан несуществующий человек. The Insider выяснил, что и другие книги из серии «История города на пальцах», выходящей в редакции «Времена», не имеют иностранных оригиналов и, вероятно, тоже представляют собой подделки.

https://www.facebook.com/lebedeva.consulting/posts/pfbid02RBizkgVcNuMhoenrGvWPNrteHzyHS8xKMoE69WhCXvzbK4zMwZNPgjUZhAgJoWGyl
каждый раз когда все остальные то капризначают, то жадничают, то в обмороке, то просто не в настроении или не вошли в резонанс с нашими законами - Qwen как тот самый лучший друг с которым в разведку. Бесплатный, работоспособный и в меру талантливый. Те кто начинает - и не только- присмотритесь к китайскому товарищу от Alibaba - не подвёл ни разу.
chat.qwen.ai

https://www.facebook.com/alex.v.krol/posts/pfbid021RVZm1jpMgGhTkPi2v4aaXS7BFyNjxQowbDtWyPpw7t4Qya14CmjxEW8UcadAf8Kl
В среднем мы с Claude работаем 10-12 часов в день, с перерывами на еду и кофе (для меня). Я уже давно ничего не печатаю для общения с ИИ, а только диктую голосом, а он печатает в ответ. Это такой режим, как общение с Джарвисом в Iron Man.
То, что мы делаем вдвоем в среднем делает команда из минимально 9-11 человек, при этом они делают в 10 раз медленней, потому что у них 60% времени уходит на согласование и митинги. Даже в стартапах.
...мои возможности опережают средний НИИ.
Ни у кого не надо спрашивать совета (ИИ лучше), не ждать, не просить, не уговаривать, не соблюдать полит корректность, не переживать за чей-то декрет или обстоятельства. Никто не крадет мое время, не спорит по пустякам, не жалуется, не выносит мозг. Доступен - всегда на любом языке. Всегда конструктивен, не обижается, не разражается. ИИ всегда имеет единственный фокус - помочь сделать то, что я хочу. Преград нет.
Нет ни одной отрасли, области, самого узкого аспекта любой технологии, где вы не можете покачаться за несколько часов до такой степени, что немедленно способны to make things. Я читаю от квантовых компьютеров до термояда или редактирования генома и в течении часа получаю подробное проникновение до любого мыслимого уровня.
ИИ всегда помогает, всегда делает. Не спорит, но объясняет, потому что я не настаиваю, а объясняю, почему я хочу именно так. Иногда он соглашается, иногда предлагает лучше, потому что в реализации он знает и умеет в 100000 раз больше меня. Мы общаемся, как коллеги в соответствии со своими ролями. Я прокладываю путь - он ведет корабль.
Иногда он ошибается, иногда тупит, но уж точно гораздо меньше меня и точно эпически меньше, чем рандомный человек. Это реальность.
...Я отчетливо понимаю, что как только у ИИ появится память и кодовые агенты еще немного усложнятся, то с точки зрения всех аспектов создания кода, кроме продукта, архитектуры высокого уровня и дизайна (UX) - людей здесь уже не будет.
Просто потому что я вижу список всех задач и понимаю, что сейчас уже 50-60% задач ИИ может делать. Да, под надзором. Да, есть ошибки, проблемы с безопасностью, угрозы инъекций, но как инженер я понимаю, что это все технические проблемы, которые будет неизбежно решены в течении 1-3 лет. Тотально. Более того, присутствие человека в контуре будет умножать риск.
...Александр Ван, который в 28 лет возглавляет новую ИИ-лабораторию Meta, работающую над сверхинтеллектом, утверждает, что 13-летним подросткам стоит посвящать всё своё время «vibe coding» — использованию ИИ-инструментов для генерации кода через запросы на естественном языке. По его словам, текущий момент сопоставим с зарёй революции персональных компьютеров, которая дала преимущество Биллу Гейтсу и Марку Цукербергу. Об этом он рассказал в интервью подкасту TBPN.
Ван считает, что буквально весь код, который он когда-либо писал, будет заменён ИИ в течение ближайших пяти лет.

https://www.facebook.com/avorobey/posts/pfbid0vDCYA2dedQ8eTmxydJJRPpAko3Zgoo3VhYJpEfUBziA9CSjmbbJRXr1Rf8oHBGqXl
Сегодня в твиттере драма, чувак в прошлом из Deepmind (сегодня CEO стартапа) заявил, что он с помощью LLM решил две супер-знаменитые математические задачи, и представит формальное доказательство (т.е. 100%-ная достоверность) одной из них, об уравнениях Навье-Стокса, сегодня. Он заключил несколько пари на десятки тысяч долларов на эту тему.
Очередной пример LLM-психоза, который поражает и очень умных людей, если они очень хотят во что-то поверить. LLM подстраиваются под ваши желания, "признают свои ошибки" там, где это вам удобно, строят именно такой нарратив, который вы хотите от них получить. Они как "cold readers" - фокусники, которые рассказывают вам о вас самих, используя крохотные подсказки вашего body language, начиная и тут же меняя версии, если они не подходят, итд. Если вы не умеете беспощадно проверять LLM на каждом шагу, не доверяйте никаким их подтверждениям ваших умопостроений. Никогда. Очень прошу вас.
P.S. Было бы занимательнее оставить вопрос хоть чуть-чуть подвешенным, но не могу скрыть правду: он запостил свое Lean-доказательство пару часов назад, оно бредовое, как и ожидалось.

https://www.facebook.com/reel/1137707845237779
Саду-ата из села Бирлик живёт с болезнью Паркинсона уже три года. Когда традиционные методы лечения почти не приносили результата, сын предложил ему играть в Counter-Strike по два часа в день.
Сначала мужчина с трудом держал мышку, но теперь уверенно передвигается по карте и делает фраги. По словам семьи, регулярные игры улучшили координацию, реакцию, сон и настроение, а тремор после занятий даже уменьшается.

https://www.facebook.com/pavlovstar/posts/pfbid0bb16qSYp8EdqTggj4FLK3GWx16sYCnkYJDJAzEaqwBdXXvoDTjQZsVspTRaH9Mpwl
Элан Баренгольц, человек, далёкий от инженерных забав и стартапного ажиотажа, – когнитивный учёный и философ, который годами изучал связь языка и мышления. Его интересовала вовсе не «умность» этих моделей, а куда более странный вопрос: что вообще мы подразумеваем под словом «смысл»? И эти LLM стали для него не просто технологией, а экспериментом, который человечество, сама того не ведая, поставило над собой. Этот ученый увидел в них не инструмент, а зеркало, отражающее нашу собственную иллюзию.
Он не утверждает, что модели глупы. Напротив – они слишком хороши, до тошноты совершенны. Они показали, что связный, убедительный, логичный язык может существовать без какого-либо понимания мира. Не "плохой" язык, не бессмыслица, а вполне нормальная, рабочая речь. И это, знаете ли, разрушило старую интуицию, десятилетиями господствующую в философии: о том, что язык должен быть прочно связан с реальностью, с опытом, с какими-то значениями, заключенными в голове.
...Ключевая идея Баренгольца, если вкратце, такова: язык – это самодостаточная система форм, а не окно в реальность. Слова могут быть связаны в сложные структуры, поддерживать друг друга, объяснять друг друга – и при этом ни к чему "вне языка" напрямую не отсылать. LLM – живое тому доказательство. Они не знают, что такое "стул", но идеально знают, как о стуле говорить. И это, признаться, выглядит несколько жутковато.
И вот здесь начинается самое неприятное. Если язык может работать без смысла в модели, то откуда уверенность, что человеческий язык всегда наполнен смыслом? Может быть, большая часть того, что мы считаем "пониманием" – это тоже умение оперировать структурами, привычными паттернами, социально согласованными формами речи? LLM не доказали, что люди – машины. Они показали, что машины могут делать то, что мы считали признаком глубинного понимания. И это, я вам скажу, не очень приятная перспектива.
Баренгольц, конечно, не утверждает, что у людей нет смысла или опыта. Его тезис куда тоньше и опаснее: смысл не встроен в язык автоматически. Он возникает где-то на стыке тела, восприятия, культуры и интерпретации. А язык сам по себе – может быть, просто форма, оболочка, интерфейс. Очень мощный, очень убедительный, но не гарантирующий понимания.

http://facebook.com/sergejs.roze/posts/pfbid02sTruB7aJhwHGcq5htpyCq9WRGaA7Uia4NVLgFPauwsix6MENA9oKVHsELZCpaV67l
В американской глубинке есть тайный поросший мхом бункер, где по пятницам 13-го числа встречаются самые страшные маньяки, серийные убийцы, насильники и прочие отбросы рода человеческого.
Там, в глубинах бункера, они работают над дизайном интерфейса Microsoft Teams

https://www.facebook.com/sergey.karelov.5/posts/pfbid02UWBF3rwUpZmGCxCLF413rifnSm7Z2YuDBbv27LxxqAfoRNyx4pm8tTaqUraYBswol
Коперник с ChatGPT не придумал бы гелиоцентрическую модель мира, а вооруженный Claude или Gemini Кеплер не открыл бы законы движения планет.

https://www.facebook.com/alex.v.krol/posts/pfbid0R2t35xYEHqnqAGQ5eHrcqJuwBZLs3eWKGGwzrp4fbV3Jj4oY71mi6x2fqyHvLjSAl
1. Более 70% разработчиков получают плохие результаты с ИИ по причине отсутствия критических навыков в анализе, решении проблем и крайне низким владением ИИ специфически для разных задач разработки, т.е. не используют специализированных кодовых агентов. При этом они видят причину не в дефиците своих навыков, а в том, что ИИ тупой.
2. Стандартный аргумент наемных программистов в том, что ИИ не способен понять объемные кодовые базы энтерпрайзного уровня, при этом они пытаются до сих писать промпты для chatGPT из серии - "проанализируй мне код на миллион строк." В одной дискуссии было справедливо замечено, что "сначала 10 лет вы сами писали говно-код и накапливали технологический долг, и ваша кодовая база это mess, а теперь ИИ не способен понять то, что вы САМИ не способны понять уже давно.
3. При этом есть пока незначительная доля разработчиков, которые активно используют ИИ, причем, именно кодовых агентов, активно пишут различные утилиты и фреймворки, повышающие эффективность взаимодействия с ИИ, и такие разработчики неизменно сообщают, что оказались способны в одиночку за дни выполнять задачи, которые без ИИ требуют 5-6 человек и месяцев работы. Такие разработчики отчетливо понимают, что ИИ мощный инструмент и он требует умения и квалификации для его эффективного использования.
4. Как и всегда - качество результата, который разработчики получают от ИИ прямо зависит не от ИИ, не от задачи, а на 90% от квалификации пользователя, причем, как в общем понимании важных аспектов разработки, так и в глубоком понимании специфики работы ИИ, включая инжиниринг контекста, практики оптимизации токенов.
Тот, кто недостаточно квалифицирован будет получать ВСЕГДА ничтожные результаты, в то время, как квалифицированный разработчик всегда будет получать выдающиеся результаты.
5. Т.е. можно допустить, что 70-80% разработчиков потеряют работу в течении 3-5 лет, потому что ИИ вскрывает то, что они тщательно скрывают - профнепригодность.

https://www.facebook.com/greenhackman/posts/pfbid0iHMZq4wnmNGsfRWRyVBEVabCAypoaW1SeBMKSrP7zeG8mfShYScbRBoABSoenmPwl
Неделю назад OpenAI выкатил Atlas — AI‑браузер с ChatGPT «внутри бортовой панели». Это превью на macOS для Plus/Pro/Business: боковая ассистент‑панель, «память» посещённых сайтов по желанию пользователя и Agent mode, который может сам кликать и выполнять цепочки действий на сайтах. На «чувствительных» ресурсах агент тормозится и просит явное разрешение. Windows и мобильные обещаны позже.
Как это работает. Вы открываете страницу отеля, справа всплывает панель Atlas. «Собери мне норм за выходные, подскажи, где дешевле, забронируй с бесплатной отменой». Агент идёт по вкладкам, считывает условия, заполняет форму и держит вас в курсе. Никаких «скриптов» руками — вы просто следите, правите курс, даёте разрешения там, где нужно.
Фактура. Atlas встроил ChatGPT в сам браузер: поиск, суммирование, автозаполнение, персонализация. «Memories» — опциональны: можно вообще отключить или ограничить сайтами/профилем. Agent mode запускается у Plus/Pro: клики, формы, навигация, но без скачиваний и без доступа к приложениям/чувствительным зонам без OK от пользователя.
...Контекст рынка. Edge вставил Copilot, Chrome — Gemini, The Browser Company толкает Dia, Perplexity делает Comet. Atlas поднимает ставку: агент — часть браузера, «память» — часть браузера. Война смещается из «кто быстрее отрисует вкладку» в «кто надёжнее проведёт вас по интернету вместо мыши».
Почему это важно сейчас. Пользователи утонули во вкладках и копипасте. Агент, который видит страницу и действует в браузере, — понятный путь к экономии кликов.
...Итого. Atlas — не «браузер с чатиком», а попытка сделать из браузера агента. Пока без «киллер‑сценария», ради которого массово бросают Chrome/Edge, но с правильной ставкой на экономию кликов. Если за пару релизов появятся API для памяти и событий, рынок микро‑агентов взлетит. Если нет — это ещё одна удобная панель справа, и Comet продолжит забирать поиск‑как‑диалог.
Но не забывайте, вы пускаете себе на компьютер ИИ, который галлюцинирует, умеет врать, и будте осторожны с ним.

https://www.facebook.com/greenhackman/posts/pfbid02kZVsZ5GvfNfCwBP9kjQjfDdwUEGcMbC7jQG6tWuJ8Frm3s7JRVmZWL49gHptuqrel
Все ждут, что ИИ освободит людей от рутины и подарит четыре часа работы в день. А на самом деле зумерам готовят старый добрый режим «работай больше, получай меньше и молчи».
Экономист Гэри Шиллинг говорит так: молодые войдут в худшую экономику за последние десятилетия. Доходы падают. Стоимость жизни растёт. Социальная защита провисает. ИИ и роботизация ускоряют это падение.
Что ломается. Раньше у среднего класса была опора: ты входишь на рынок с профессией, растёшь по лестнице, покупаешь дом в ипотеку, откладываешь на пенсию. Сейчас эта лестница сожжена. Долг — дорожает. Жильё — уезжает в инвестиционные фонды и аренду. Пенсии — сдвигаются к модели «сам накопи».
Профессии — автоматизируются. Кассир, бухгалтер, колл-центр, менеджер поддержки, логист, юрист-референт, копирайтер, медиа-сборщик контента, middle-аналитик, middle-маркетолог — всё это уже заменяется алгоритмами и агентами. Алгоритм не спорит про переработки, не берёт отпуск и не стареет. Значит, цена человеческого часа снижается. А значит, чтобы удержаться на уровне родителей, зумеру придётся не работать умнее, а работать дольше.
... Уже сейчас корпорации строят внутренние академии и растят людей под свой стек. Это выглядит как забота. По факту это замок. Тебя учат под конкретную экосистему процессов, и после пяти лет там ты не конкурентен снаружи. Ты застрял. И компания диктует условия. Власть переходит не к государству и не к работнику. Власть переходит к структурам, у которых есть свой ИИ-стек и своя внутренняя школа.
...Пост не про индивидуальную трагедию «зумеры страдают». Это системный сдвиг. У нас рождается экономика, где один слой людей владеет ИИ, роботами, цепочками поставок, данными, каналом к клиенту и обучающими центрами под себя.
Второй слой людей обслуживает этот контур и не может выйти наружу. Если средний класс уходит, то больше некому держать социальную стабильность. Средний класс всегда был предохранителем: он брал ипотеку, голосовал за предсказуемость, не устраивал хаос, потому что у него было что терять. Когда у тридцатилетних и сорокалетних нет накоплений, нет жилья, нет уверенности в пенсии и они физически выжаты переработками, у них нечего терять.
А общество с поколением, которому нечего терять — это уже не вопрос экономики. Это вопрос управляемости.

https://www.facebook.com/trtrussian/posts/pfbid0373NzN91FQv3nfVw4qwYZx11GX9RmxYom2gbAxiQAF99uRXfPymTvwWTXcQzMfza1l
В Турции понятием 2025 года стала «цифровая совесть»
Министр культуры и туризма Турции Мехмет Нури Эрсой сообщил, что «словом / понятием 2025 года», определенным Турецким языковым обществом (TDK) по итогам народного голосования, стало выражение «цифровая совесть».
«Во многих случаях люди в реальной жизни не берут на себя ответственность — или не хотят ее брать — и стремятся «успокоить свою совесть» с помощью лайка или публикации в социальных сетях. Это приводит к пассивизации личной чувствительности и превращает совесть в «кликабельную операцию», — заявил он.
В цифровую эпоху совесть, ответственность и действие все чаще сводятся лишь к одному «клику».
Совершая лайк, репост или комментарий, человек ощущает, будто выполнил свой человеческий долг одним нажатием кнопки, ограничивая чувства сострадания и справедливости лишь символической видимостью.
Поэтому понятие «цифровая совесть» должно занять свое место в языке как необходимое обозначение новой, зачастую вводящей в заблуждение функции совести в цифровом пространстве.

Date: 2026-01-04 17:37 (UTC)
redis: (Default)
From: [personal profile] redis
Да мне тут твиттер такого напевеводил...

Женщина с другого берега Даугавы в шутку написала, что мы можем пойти на берег и кричать друг другу через реку (скричаться, или как оно там по-латышски).

Я решил посмотреть, как же твиттер переведет это слово. А он мне написал, что, якобы, ее текст звучит как "я молодая незамужняя, готова встречаться" и т.д. :)

Profile

egils: (Default)
egils

January 2026

S M T W T F S
    12 3
45 678910
11121314151617
18192021222324
25262728293031

Most Popular Tags

Page Summary

Style Credit

Expand Cut Tags

No cut tags
Page generated 2026-01-09 06:12
Powered by Dreamwidth Studios