url
stringlengths 36
70
| domain
stringclasses 1
value | text
stringlengths 757
174k
| length
int64 757
174k
|
|---|---|---|---|
https://habr.com/ru/companies/timeweb/articles/963684/
|
habr.com
|
Кино и видеоигры давно находятся в постоянном культурном обмене — фильмы получают игровые адаптации, а игры вдохновляют киноделов. Порой результат получается катастрофическим, к примеру, киноверсия Super Mario Bros. (1993) или игра Fight Club , которые стали синонимами провала. Но иногда, как в случае с фильмом « Смертельная битва » (1995) или игрой The Chronicles of Riddick: Escape from Butcher Bay , результат оказывается не просто достойным, а культовым, по новому раскрывая первоисточник и добавляя ему глубину. Однако, если фильмы и игры по их мотивам хоть както обсуждаются, то адаптации сериалов в виде игр остаются не замеченными. Между тем, с начала 2000х появилось немало игр, созданных по всем канонам своих сериальных первоисточников. Создатели не пытались перепридумать мир, используя франшизу как приманку. Эти проекты создавались людьми, которые знали и любили материал, пусть и работали в рамках ограниченного бюджета и устаревающих технологий. Среди множества неудачных или забытых лицензионных игр можно найти настоящие жемчужины, в которых чувствуется душа, фанатская преданность и желание передать вайб оригинала. Именно о таких, не самых популярных, но удивительно атмосферных адаптациях сериалов мы и поговорим. Futurama: The Game (2003) — это приключенческий платформер с элементами экшена, основанный на одноимённом мультсериале Мэтта Грейнинга. Игра была разработана шведской студией Unique Development Studios (UDS) и издана Vivendi Universal Games для PlayStation 2 и Xbox. Игра не выходила на ПК, а тираж был ограничен изза закрытия студии вскоре после релиза, поэтому стала редким коллекционным объектом и, своего рода, «потерянным эпизодом сериала». Разработка велась при участии основной команды сериала. Сенарий написал Дж. Стюарт Бёрнс (автор нескольких ключевых эпизодов Futurama). Озвучивали те же актёры дубляжа — Билли Уэст (Фрай, профессор Фарнсворт, Зойдберг), Кэти Саган (Лила), Джон Ди Маджио (Бендер) и др. Музыка и визуальный стиль полностью соответствуют мультсериалу. По сути, игра задумывалась как интерактивный эпизод сериала. Создатели рассматривали её как каноничную часть истории, поскольку сценарий был написан и утверждён командой Fox Television. История начинается в типичном духе Футурамы: профессор Фарнсворт случайно продаёт компанию Planet Express корпорации MomCorp , в следствии чего Мама становится властительницей Вселенной. И теперь команда (Фрай, Лила, Бендер и др.) вынуждена путешествовать по множеству миров и эпох, чтобы остановить Мамочку. Сюжет подаётся как 22минутный эпизод сериала с фирменными вступительными титрами, узнаваемым саундтреком Кристофера Тинга и катсценами, наполненными шутками, подколками и метаиронией (Фрай нередко ломает четвёртую стену). Фрай — стреляет из различных фантастических пушек (лазеры, плазмомёты, взрывающиеся рыбы); Лила — дерётся врукопашную, использует приёмы кунгфу и каратэ; Бендер —глотает предметы и отрывает себе голову, превращаясь в шар для катания; Доктор Зойдберг — появляется в основном как комедийный персонаж в некоторых уровнях. Геймплей строится на чередовании боёв, прыжков, сборе предметов и коротких миниигр. Таких как полёты на космолёте, перемещение по заводам MomCorp, перестрелки с роботами и головоломки. Камера фиксированная, но динамично меняет ракурсы в духе мультфильма, а дизайн уровней полностью отражает стилистику Futurama, будь то НьюНьюЙорк, Марс, пиратская планета или космические корабли. Самое ценное в игре — точное попадание в вайб сериала: искромётные реплики (часто даже лучше прописанные, чем в некоторых поздних сериях), визуальные гэги и пасхалки, пародии на игровые клише (например, когда персонажи жалуются на устаревшую боёвку прямо во время боя). Фактически, все катсцены игры (длительностью около 25 минут) позже были смонтированы в единый «потерянный эпизод» Futurama, включённый в DVDсборники. Этот эпизод рассматривается фанатами как «официальный» 73й эпизод 4 сезона ( последнего сезона на канале Fox ). графика cartoonshader (упрощённый celshading ) довольно близка к оригинальной мультипликации; лицевые анимации и движения персонажей сделаны с большим вниманием к стилю шоу; катсцены срежиссированны в духе сериала: крупные планы, панорамы, быстрая смена кадров. Недостатком можно было бы назвать неудобное управление и повторяющийся дизайн уровней, изза чего критики (IGN, Eurogamer) поставили игре 6–7 баллов из 10, хотя фанаты восприняли её значительно теплее. После закрытия студии UDS и прекращения лицензии Fox, игру больше не переиздавали, поэтому диск стал раритетом, стоящим на вторичном рынке довольно дорого, особенно Xboxверсия. Несмотря на средние оценки, Futurama: The Game сегодня считается одной из самых удачных адаптаций мультсериала в истории и каноничной частью вселенной изза сценария и актерского состава. The XFiles: Resist or Serve (2004) — это приключенческий хоррор от Black Ops Entertainment , изданный Vivendi Universal для PlayStation 2 на основе культового сериала «Секретные материалы» и задумывалась как отдельный сезон шоу. Игра написана в сотрудничестве со сценаристами сериала и имеет самостоятельный сюжет из трёх эпизодов. В итоге игра получила смешанные отзывы, но поклонники сериала высоко её оценили за атмосферу и точное попадание в дух оригинала. У создателей была задача сделать не просто игру, а продолжить сериал в интерактивном формате. Разработчики создали три сюжетные арки, связанные общей мистической линией. История разворачивается в середине 7го сезона шоу, примерно между эпизодами « Знамения и чудеса » и « Sein und Zeit ». Главные герои — агенты Фокс Малдер и Дана Скалли распутывают очередную цепочку загадочных смертей в заснеженном городке Колдспринг (штат Колорадо). Расследование приводит их к древнему мистическому культу, связанному с одержимостью, воскрешением и инопланетными экспериментами. Игра состоит из эпизодов, стилизованных под структуру телесериала: «The House on the Hill» — Малдер и Скалли приезжают в Колдспринг, чтобы расследовать убийства, связанные с воскрешением мёртвых. «Resurrection» — сюжет приводит к оккультным ритуалам, демонам и зомби. «The Old Ones» — кульминация, отсылающая к типичной мифологии сериала сочетает конспирологию, НЛО и древние силы. Диалоги и структура эпизодов выдержаны в каноне, так как написаны Фрэнком Спотницем , одним из сценаристов шоу. А Дэвид Духовны и Джиллиан Андерсон лично озвучили своих персонажей, что придало игре ещё больше достоверности. По структуре игра напоминает Resident Evil эпохи PS1 и PS2: Пользователь может выбрать, за кого играть — Малдера или Скалли. У каждого персонажа свой путь и часть сюжета: Малдер чаще сражается с врагами и исследует мистические аспекты; Скалли — проводит анализы, вскрытия, делает медицинские заключения, собирает улики. Таким образом, возможно два варианта прохождения, раскрывающих разные диалоги и детали сюжета. тусклое освещение, подземные тоннели, частое наличие дождя или снега; объёмные звуки шагов, щёлканье фонарика, электрические шумы; фирменная музыкальная тема The XFiles от Марка Сноу. Фактически, атмосфера напоминает гибрид Resident Evil 2 и Silent Hill, но с духом расследования и мистицизма. В дизайне уровней преимущественно атмосферные полупустые локации в духе survival horror. Есть полноценные видеовставки в стилистике сериала (титры, субтитры, эффекты). Критики в 2004 году встретили игру неоднозначно: похвалили атмосферу, актёрскую озвучку и сценарий, но раскритиковали устаревший геймплей и управление. Средняя оценка — 65 из 100 баллов, но среди фанатов сериала The XFiles игра считается недооценённой адаптацией, сохранившей ДНК сериала . Особенно выделяли точное попадание в характеры Малдера и Скалли, баланс между хоррором и научнофантастической интригой, а также ощущение, что это «игровой эпизод сериала». Resist or Serve — один из редких примеров, когда создатели не пытались «осовременить» франшизу, а полностью оправдали ожидания фанатов. Это не спинофф и не сборник миссий, а полноценная история, вписанная в канон сериала. Её могли бы сделать дешёвым дополнением, но разработчики приложили немало усилий, чтобы она стала запоминающейся: например, отдельные кампании Малдера и Скалли. Из сюжета игры получилась бы хорошая двухтрёхсерийная арка в седьмом сезоне, которая, в определённых отношениях, была бы интереснее некоторых серий «Мифического архетипа» из седьмого сезона. Для любителей The XFiles это фактически «потерянные три эпизода», с актёрами, сценарием и духом оригинала, пусть и на устаревшем движке. Buffy the Vampire Slayer (2002) — это видеоигра по одноимённому сериалу Джосса Уидона, разработанная студией The Collective, Inc. и изданная Electronic Arts эксклюзивно для Xbox. Несмотря на то, что она вышла только на одной платформе, игра получила культовый статус среди поклонников сериала благодаря вниманию к деталям, удачной боёвке и воссозданию атмосферы «Баффи». Сюжет игры разворачивается между 3 и 4 сезонами оригинального сериала. Баффи Саммерс (в сериалу играла Сара Мишель Геллар , а в игре её дублировала Жизель Лорен ) снова защищает Саннидейл от нашествия нежити. Главный антагонист — древний вампир Какаистос (гусары, молчать!), которого воскрешают демонические силы. Он объединяется с другими злодеями, среди которых знакомые нам по сериалу — Сидни, Фейт и прочие. История написана в духе сериала: много школьной атмосферы, сарказма и мрачного мистицизма. Разработчики консультировались с командой шоу, чтобы сохранить дух оригинала, поэтому игра выглядит как «потерянный эпизод», а не просто адаптация. В игре очень хорошо продумана система ближнего боя и акробатики. Игровой персонаж Баффи может: драться руками, ногами, использовать дубинки, колья, арбалеты и священные артефакты; использовать священную воду, кресты и факелы против вампиров; применять добивающие приёмы: вонзать кол в сердце, сбрасывать врагов в огонь, протыкать их подручными средствами. Каждая локация (школа Саннидейла, кладбище, канализация, особняк Какаистоса и др.) наполнена ловушками, секретами и небольшими катсценами с персонажами. Баффи решает головоломки и исследует окружение, что придаёт игре структуру классического экшнприключения, близкую к Tomb Raider и Resident Evil. Виллоу, Зандер, Спайк, Джайлз, Фейт — все с голосами актёров из сериала (кроме Баффи); диалоги написаны в фирменном стиле Уидона — с юмором и самоиронией, особенно в сценах в библиотеке школы. Саундтрек стилизован под сериал: гитарные рифы, готический рок и ambient, создающий атмосферу ироничного подросткового хоррора. Для 2002 года игра выделялась плавной боевой системой и неплохой графикой на движке Slayer Engine (впоследствии использованном в игре Indiana Jones and the Emperors Tomb). Разработчики добились выразительной анимации Баффи — её движения в бою выглядели динамично и естественно, что редкость для тех лет. Критики отмечали атмосферу, боёвку, озвучку и локации. Минусами стали повторяющиеся враги, неровная камера и некоторые баги. Средняя оценка — 75 из 100 баллов (по данным GameRankings), что весьма высоко для лицензированных игр по сериалам того времени. Игра стала успешной и породила продолжение — Buffy the Vampire Slayer: Chaos Bleeds (2003), уже на PS2, GameCube и Xbox. Первую часть нередко называют одной из лучших адаптаций сериалов в игре, потому что: она не просто «использует бренд», а действительно продолжает его нарратив; чувствуется уважение к персонажам и фанатам мира Саннидейла; разработчики не побоялись добавить собственные сюжетные элементы, при этом сохранив канон. Game of Thrones: A Telltale Games Series (2014) — это повествовательная приключенческая игра, которая стала одной из самых весомых и сложных адаптаций сериала «Игра престолов» от HBO. В отличие от типичных экшенов или RPG, Telltale сделала интерактивную драму, в которой ключевое внимание уделено политическим интригам, морали и последствиям выбора — всему тому, что было сутью романов Джорджа Мартина и сериала Дэвида Бениоффа. Игра раскрывает параллельную историю сериала, происходящую примерно во время 3–4 сезонов. Главные герои —Форрестеры, вассалы Старков, живущие в землях Северного Тэллхарта. Семья оказывается втянута в политические интриги между домами Болтонов, Ланнистеров и Тиреллов, потому что их владения, Волчий лес, – источник ценной древисины. Telltale не пыталась пересказать события сериала, а вписала новых героев в уже существующую вселенную, так, чтобы игрок пересекался со знакомыми персонажами — Тирионом, Серсеей, Рамси Болтоном, Марджери Тирелл. Их образы основаны на актёрах сериала, включая Питера Динклейджа и Лену Хиди. История разделена на 6 эпизодов, где игрок управляет несколькими персонажами, чьи действия переплетаются: Гаред Таттл — бывший оруженосец, отправленный на Стену в Ночной Дозор; Мира Форрестер — служанка при дворе в Королевской Гавани, пытающаяся при помощи политических интриг спасти семью; Родрик Форрестер — старший сын, вернувшийся с Войны бастардов, желающий восстановить честь дома; Ашер Форрестер — изгнанный сын, живущий на Востоке в Эссосе. Игрок последовательно переключается между героями, и его решения влияют на репутацию дома, судьбы героев и отношение союзников. Каждый эпизод заканчивается моральной дилеммой, где часто приходится выбирать между двумя плохими вариантами. Главное — не победа, а последствия решений. Даже казалось бы правильное решение может привести к трагедии — это соответствует духу книг и сериала. Telltale точно передала настроение «Игры престолов»: постоянное ощущение угрозы, цинизм, политические интриги и страх перед предательством. Визуальный стиль —графика с эффектом масляной живописи, создающая ощущение старинных иллюстраций. Музыка Рамина Джавади и голоса актёров сериала помогают погрузиться в атмосферу оригинала. диалоги с ограничением по времени (не ответил — персонаж счёл это молчанием или слабостью); Quick Time Events в боевых сценах (редко, но динамично); последствия: в конце каждого эпизода демонстрируется статистика, как поступили другие игроки по миру. Игра получила в целом положительные отзывы (Metacritic: 75–80 из 100 баллов). Высоко оценили сценарий, актёрскую игру, атмосферу политического напряжения, эмоциональные диалоги и ощущение реальности мира . Критиковали за технические проблемы (фризы, устаревший движок), а так же впечатление, что некоторые выборы мало влияют на глобальный исход. Тем не менее, многие фанаты считают Game of Thrones: A Telltale Series одной из самых лучших адаптаций, потому что она не пытается быть экшеном, а сосредоточена на том, что делает «Песнь льда и пламени» уникальной — сложности человеческих решений. Джордж Мартин и HBO лично следили за созданием сценария, чтобы не было расхождений с каноном сериала. Сюжет игры аккуратно пересекается с « Пиром стервятников »: упоминаются события, которых нет в сериале, но есть в книге. Некоторые фанаты считают, что игра лучше передаёт политику Вестероса, чем последние сезоны телесериала. Игра даёт возможность прожить моральные дилеммы персонажей Мартина и показывает, что даже малые дома могут стать причиной трагедии. Финал оставляет пространство для интерпретаций и обсуждений (Telltale планировала второй сезон, но закрылась до его выпуска). The Sopranos: Road to Respect (2006) — игра от 7 Studios и THQ , которая попыталась передать атмосферу культового сериала «Клан Сопрано» (1999–2007) через формат криминальной драмы и боевика от третьего лица. Хотя критики приняли её прохладно, фанаты сериала часто отмечают желание создателей сделать продолжение телемира, а не просто использовать бренд. Особенно благодаря участию оригинальных актёров и сценаристов. События игры происходят между 5м и 6м сезонами сериала. По сюжету Кристофер Молтисанти, знакомый нам по сериалу, поручает Джо ЛаМанна (главному герою игры) работу в семейном бизнесе. Джо пытается заработать уважение и доказать лояльность семье, но попадает в круг мафиозных интриг, насилия и моральных компромиссов. Сценарий написал Дэвид Чейз , создатель The Sopranos, совместно с другими сценаристами сериала. Практически все главные актёры озвучили своих персонажей: Кроме того, в игре есть цифровые копии актёров, созданные по технологиям 2005 года, что тогда выглядело необычно для игр этого жанра. Игровой процесс сочетает рукопашные бои, короткие перестрелки и катсцены. Большую часть времени занимает боевка: кулаками, подручными предметами (бутылками, пепельницами, бейсбольными битами), а иногда и при помощи огнестрельного оружия. В боях используется механика «Finish him!» — добивание в духе криминального кино. Игрок вытрясает долги, выполняет поручения Кристофера и Тони, катается по НьюДжерси и зависает в клубе «Bada Bing!». Сцены в клубе Bada Bing! сделаны по фото декораций со съёмок. Но в игре нет открытого мира — структура линейная, с сюжетными миссиями и редкими ответвлениями. В игре видно уважение к сериалу. Она полностью выдержана в кинематографическом стиле HBO: длинные диалоги, грубость, сарказм. Звучит оригинальная титульная песня « Woke Up This Morning ». Музыка — смесь оригинального саундтрека сериала и инструментальных треков. Пожалуй, самая сильная сторона — озвучка. Актёры читают реплики с характерными интонациями, часто импровизируя. Сцены в раздевалке клуба, кухонные разговоры, семейные обеды передают повседневной быт мафиози. Иногда появляются внутренние монологи героя в стиле к Тони Сопрано. Пускай сюжет не дотягивает до глубины сериала, но видно, что разработчики искренне пытались воссоздать атмосферу этого мира. Для конца 2006 года графика выглядела средне, но модели персонажей были вполне узнаваемы, особенно Тони и Кристофер. Тони Сопрано в игре значительно чаще улыбается и шутит — это было сделано по просьбе Джеймса Гандольфини, чтобы отличить персонажа игры от образа в последних мрачных сезонах сериала. Критики хвалили атмосферу и озвучку, но ругали устаревший геймплей, однообразные драки, короткую продолжительность и отсутствие свободы действий. Оценки прессы: 4–6 баллов из 10. Журнал Game Informer писал: « Это скорее эпизод сериала, чем игра. Но это хороший эпизод. » Хотя The Sopranos: Road to Respect не стала хитом, она вошла в число редких попыток экранизации сложных сериалов, где упор делался не на экшен, а на характеры героев. Сегодня её вспоминают как неуклюжую, но искреннюю игру, наполненную почтением к первоисточнику, любовью к персонажам и ощущением, что ты — часть семьи, пусть и той, где уважение покупается кровью. Большинство игр по сериалам и фильмам со временем растворилось в архивах или стало мемами. Но клише, что «адаптации всегда плохие» часто скрывает понастоящему интересные работы. Buffy the Vampire Slayer, The Sopranos: Road to Respect, Futurama: The Game — все они не просто дополнения, а самостоятельные истории, сделанные с пониманием атмосферы и уважением к оригиналу. Да, эти игры стремились повторить успех блокбастеров и хотели заработать под брендом известной франшизы. Но тем не менее, это был подарок фанатам, как продолжение разговора между авторами и зрителями. Сегодня, когда индустрия снова переживает волну ремейков и ностальгии, стоит вспомнить о таких проектах. Они напоминают, что адаптация не обязана быть масштабной или дорогой, чтобы быть достойной. Главное — понимать, зачем она существует. И если в основе лежит искреннее желание рассказать ещё одну историю в любимой вселенной, пусть даже сквозь ограничения старых консолей и пиксельных лиц — эта история заслуживает того, чтобы её слушали. Новости, обзоры продуктов и конкурсы от команды Timeweb.Cloud — в нашем Telegramканале Перед оплатой в разделе «Бонусы и промокоды» в панели управления активируйте промокод и получите кэшбэк на баланс.
| 19,539
|
https://habr.com/ru/companies/yadro/articles/970390/
|
habr.com
|
Привет, Хабр! Меня зовут Илья Знаменский, я ведущий инженер в группе оптимизации алгоритмов искусственного интеллекта в AIдивизионе YADRO . Популярность RISCV растет стремительными темпами, и на рынке появляется все больше новых отладочных плат. Моей команде поставили задачу: узнать, как эти платы будут справляться с простыми AIнагрузками (задачи запуска LLMondevice не стояло). В процессе работы мы внесли вклад в развитие собственного тензорного компилятора и создали библиотеку математических ядер, которая позволила существенно увеличить производительность инференса моделей на RISCV. С какими трудностями мы столкнулись и что в итоге из всего этого получилось — читайте в статье. Архитектура RISCV уверенно развивается: формируются новые рабочие группы, активно работают комитеты, появляются стартапы . Ее популярность во многом обусловлена открытостью и масштабируемостью. Так она проектировалась изначально: есть компактный базовый набор инструкций и широкий спектр модульных расширений, что позволяет масштабироваться от простых встроенных микроконтроллеров до высокопроизводительных ядер и специализированных ускорителей. Любой разработчик или компания могут использовать и расширять базовую ISA RISCV без лицензий и бесплатно, а это снижает порог входа и стимулирует инновации. Консалтинговое агентство Omdia прогнозирует , что объемы поставок процессоров на базе RISCV будут в среднем расти на 50% ежегодно до 2030 года и к концу этого периода достигнут 17 млрд штук в год. Еще в 2023 году рынок СнК на архитектуре RISCV превысил отметку в 6 млрд долларов — это в четыре раза больше уровня 2022 года. Архитектура внедряется технологическими гигантами, такими как Google, NVIDIA, Bosch, Infineon, Nordic, а также сообществом разработчиков Qualcomm. Они видят в RISCV потенциал, поэтому немало инвестируют в ее развитие и распространение. Как архитектура успешно нашла свое применение в мобильных устройствах— читайте в нашей статье . Научное сообщество также активно включилось в развитие RISCV: создаются исследовательские центры и лаборатории, многие вузы сотрудничают с представителями индустрии. Новейшие разработки быстро находят отражение в IPблоках и отладочных платах. AIсегмент не остается в стороне: ожидается уверенный рост до 550 миллионов поставок к 2031 году. И уже сейчас процессоры с RISCV находят применение в различных устройствах, связанных с работой систем искусственного интеллекта. Так, например, SiFive удалось успешно запустить LLM на RISCV за счет компиляторного подхода. Компания доказывает , что RISCV с векторными расширениями — это серьезная альтернатива в AIнагрузках таким традиционным архитектурам как x86 и ARM. Перед тем как приступить к тестированию нагрузок на отладочных платах, мы использовали QEMU — удобный аппаратный эмулятор, который поддерживает широкий набор процессорных архитектур, а также может полностью управляться через командную строку. Несколько лет назад существовали определенные трудности с отладкой на платах с RISCV: их было мало, многие из них были достаточно «сырыми», поддерживали они лишь набор самых стандартных расширений RISCV (IMAFDC). На тот момент ни о какой поддержке векторных расширений речи не шло. QEMU же «из коробки» предоставлял полностью функциональный RISCV процессор, пусть и виртуальный, но с поддержкой RVV и широкими возможностями отладки через GDB. Интеграция QEMU в CICD позволила нам начать предварительные эксперименты с оптимизациями под RVV до того момента, как мы заказали и получили платы с поддержкой векторного расширения. Функциональная отладка на QEMU работает без нареканий, однако нет возможности оценить, какой будет производительность на самом деле. Различные симуляторы (например, gem5) тоже не решают проблему. Они медленные: реальная тактовая частота отладочной платы в любом случае будет выше, чем у симулятора. К тому же, еще и неточные: симулятор может неплохо справляться с простыми сценариями, но при оценке производительности сложного многопоточного кода может дать погрешность в десятки процентов. «Не попробуешь на реальной плате — не узнаешь», — поняли мы. И, когда на рынке появились RISCV платы с поддержкой векторного расширения RVV, приступили к тестированию. Disclaimer. RISCV развивается на высоких скоростях: каждый месяц приносит нам новости о новых разработках и продуктах на открытой архитектуре. Пока мы занимались исследованием и писали статью, появились более современные платы, которые в этот обзор не вошли, — например, MilkV Jupiter и MilkV Megrez. Если статья вызовет интерес у комьюнити, мы бы выпустили продолжение с обзором этих и других новых плат. Оставляйте комментарии и stay tuned! Эта плата совсем небольшая, примерно 6,5 на 3 см. Она основана на процессорном ядре Xuantie — THead C906. Единственное ядро имеет небольшую тактовую частоту в 1 ГГц, обусловленную проектными нормами 22 нм. Поэтому чудес в плане производительности от Mango Pi ожидать не стоит. Но зато она отлично подойдет в качестве недорогого базового инструмента для желающих опробовать RISCV вживую. Mango Pi работает под управлением операционной системы Armbian. Есть базовый набор интерфейсов, чтобы использовать Mango Pi в качестве одноплатного компьютера. Но это скорее удел энтузиастов, так как у платы не слишком высокая производительность. Нас же она интересовала наличием векторного расширения промежуточной версии RVV 0.7.1. RVV реализован в C906 через кастомное расширение XTheadVector. Векторные регистры в C906 имеют ширину 128 бит, что при объединении регистров в группы (LMUL) дает возможность работать с большим числом операндов в рамках одной векторной инструкции. Более подробное описание характеристик VPU процессора C906 можно найти на странице с результатами бенчмарков платы . Мы запустили на этой плате инференс более чем десяти популярных моделей нейросетей: классификация, сегментация и другие. Производительность кода была увеличена примерно в два раза за счет оптимизации под RVV, но чуда не случилось: одно ядро на невысоких частотах даже с векторизацией кода работало значительно медленнее, чем хотелось бы. Заявленные 4 Гфлопс пиковой производительности на реальных computebound нагрузках нам достигнуть не удалось. Мы интегрировали плату в CICD, и там она успешно работала, пока на рынок не вышла ее «старшая сестра» — Lichee Pi 4A. Sipeed, производитель Lichee Pi 4A, заявляет, что эта плата с базой из четырех ядер Xuantie THead C910 — аналог Raspberry Pi 4 с улучшенной производительностью и расширенными функциональными возможностями. Lichee Pi — модульное устройство, состоящее из расширительной платы и вычислительного модуля LM4A. Наш опыт подтверждает, что у Sipeed вышел достаточно качественный продукт: очевидных проблем с надежностью мы не заметили. Lichee Pi 4A действительно способна обогнать RPI4, если затратить определенные усилия на оптимизацию ПО. Плата оснащена 16 ГБ памяти LPDDR4x, отдельными GPU и NPU IPблоками Imagination. Модульная архитектура, GPU с пиковыми 50 Гфлопс и современный набор интерфейсов позволяют использовать Lichee как основу для разных устройств — есть, например, мининоутбук Lichee Console 4A и планшет Lichee Pad 4A. Игровой производительности от платы ожидать не стоит, но для вебсерфинга и видео в среднем качестве возможностей GPU достаточно. СнК THead TH1520 изготовлена по проектным нормам 12 нм. Четыре ядра C910 (до 1,85 ГГц) имеют L1i L1d кеши объемом 64 КБ каждый и общий кеш L2 1 МБ. Архитектура соответствует RV64GCV и, как Mango Pi, поддерживает кастомное векторное расширение XTheadVector (RVV 0.7.1). Векторный блок быстрый — задержки 3–5 тактов с пропускной способностью до двух инструкций за такт. Но есть особенности: операции «вектор скаляр» иногда заметно медленнее, чем «вектор вектор». На других архитектурах такие инструкции, напротив, дают дополнительное ускорение за счет лучшей утилизации векторных регистров. Ограничения подсистемы памяти и кешей ощутимы: на типичных задачах ИИ реальный пик производительности достигает лишь 50% от заявленного. Наши тесты также показали, что пропускная способность памяти у Lichee Pi заметно ниже, чем у х86процессоров Intel и AMD. NPU — это чип Imagination AX3386 NNA c заявленной пиковой производительностью 4 TOPs int8. Для инференса нейросетей используется фреймворк HHB на базе Apache TVM. Поддерживаются популярные форматы моделей. Но, когда мы тестировали фреймворк, он был сыроват: без доработок запускались только базовые модели, и это не позволило в полной мере оценить возможности NPU. Несмотря на ограничения, Lichee Pi 4A оказалась для нас лучшим вариантом по сочетанию стабильности, производительности и функциональности. Мы отказались от Mango Pi в CI, полностью перейдя на Lichee, и добавили несколько плат для удаленного доступа разработчикам. Если хотите развивать свои навыки в машинном обучении и создавать реальные продуктовые решения в области ИИ, приглашаем к нам в команду: Senior FullStack Developer (JavaScript Python) Мы ждали Kendryte CanMVK230 как первую доступную плату с официальной поддержкой RVV ратифицированной версии 1.0. Она построена на двух ядрах Xuantie C908 с 8стадийным inorder конвейером и интересна кастомным ускорителем для квантованных нейросетей — расширением XTheadVdot. В базовой спецификации RVV нет поддержки int8инференса с накоплением в 32битных аккумуляторах, что приводит к переполнению результата. Приходится прибегать к промежуточным 16битным регистровым буферам. Этого удается избежать в x86 за счет инструкции VPDPBUSD и в ARM за счет инструкций SDOT, UDOT, SUDOT — опционально в ARMv8.2v8.3, обязательно начиная с v8.4. Эти инструкции позволяют значительно ускорить инференс квантованных нейросетей и применяются в популярных библиотеках oneDNN и XNNPACK. Изза отсутствия аналогов в RVV THead создала расширение XTheadVdot, и C908 его поддерживает. Мы подтвердили его работоспособность, но не успели оценить эффективность. Для сравнения: применение SDOT на ARM и VPDPBUSD на x86 дает ускорение в 1,5–2 раза на int8свертках. Эта плата пришла к нам одной из последних. Она разработана компанией SpacemiT и содержит восемь процессорных ядер (SpacemiT K1 Octacore X60), соответствующих спецификации RV64GCVB. Заявлена полная поддержка профиля RVA22. CPUядра объединены в два кластера по четыре ядра в каждом. Плата поддерживает версию RVV 1.0 и имеет широкие 256битные векторные регистры, что в два раза больше, чем у Lichee Pi. Одно из ключевых преимуществ платы — поддержка кастомного матричного расширения, реализованного на одном из процессорных кластеров. По классификации оно относится к классу интегрированных: SpacemiT IME переиспользует векторные регистры, соответствующие контрольные регистры и регистры состояния, обеспечивая за счет этого практически полную бинарную совместимость с RVV. Есть поддержка большого числа форматов данных низкой разрядности: от int4 до int16, а также плавающей точки от 4разрядной до 16разрядной и в блочном формате bf16. Пиковая производительность процессорного кластера, поддерживающего IME, составляет более 2 TOPS (по 0,5 TOPS на одно CPUядро) при умножении 8разрядных целочисленных операндов с накоплением в 32разрядных аккумуляторах. В бенчмарке Pigirons есть поддержка RVV 1.0 и SpacemiT IME. Ниже на картинках представлены результаты замеров пиковой производительности SpacemiT K1 в разных конфигурациях из: двух кластеров (восьми ядер), FP16FP32FP64, инструкции vfmacc.vf, vv; одного процессорного ядра с поддержкой IME, S8U8S32, FP16FP32FP64, инструкции vmadotu, us, su, slide, vfmacc.vf, vv; Для оценки пиковой производительности операции доступа к памяти не используются, а также минимизируются накладные расходы на организацию циклов, ядро которых — многократные повторения операции «умножения с накоплением». Больше про виды и применение матричных расширений читайте в статье Валерии Пузиковой, эксперта группы разработки математических библиотек в YADRO. Мы не успели потестировать IME, но идея реализации матричного расширения на основе уже имеющегося векторного нам показалась интересной. Так можно реализовать нечто похожее на NPU без интеграции внешнего IPблока. Если у вас такой опыт был — поделитесь им в комментариях! Отдельным пунктом в графе «интересы» у нас стояла серверная история на RISCV. Плату MilkV Pioneer на базе СнК Sophon SG2042 можно считать первым решением на базе RISCV серверного класса. У нее 64 ядра C920, основным отличием которых от C910 является увеличенная до 2 ГГц тактовая частота. Организация — шестнадцать кластеров по четыре CPUядра в каждом, индивидуальный кеш L1 (64 КБ 64 КБ) и общий L2 размером 1 МБ на кластер. Также присутствует системный кеш L3 размером 64 МБ. На плате установлено 128 ГБ DDR4 RAM и 1 ТБ SSD. Мы планировали установить обе платы в корпуса, подключить периферию. Для этого приобрели и подготовили все необходимые комплектующие. Даже создали какието задачи по тестированию серверных нагрузок, чтобы ускорить дальнейший процесс, пока платы будут корпусировать и настраивать наши DevOpsинженеры. Но, к сожалению, серверная история с RISCV закончилась, так и не начавшись: на платах присутствовали следы некачественной пайки и перегрева, и попытки оживить их до уровня вывода чегото осознанного в консоль не дали успеха. Вполне возможно, что нам просто не повезло — обе платы мы вернули по гарантии. Если у вас получилось успешно запустить MilkV Pioneer, опишите свои кейсы в комментариях. Нам будет интересно почитать про ваш опыт. Разработку собственного тензорного компилятора в YADRO начал Владислав Виноградов: он подробно описал процесс в своей статье на Хабре . Тензорный компилятор — это отдельный проект или компонент в фреймворке, который занимается оптимизацией и переводом модели глубокого обучения в исполняемый формат под конкретное устройство. Этим устройством может быть CPU, GPU или специализированные AIакселераторы — NPU или TPU. Сейчас мы активно развиваем собственный компилятор, который вырос в отдельный фреймворк для работы с моделями глубокого обучения. В его состав входят такие компоненты, как Inference Engine, сам компилятор, а также рантайм и утилиты. Дополнительно идут плагины, делегаты и компиляторные фронтенды для OpenVINO и TFLite. Компилятор поддерживает фреймворки OpenVINO и TFLite, работает с операционными системами Linux и Android и является кроссплатформенным: обеспечена совместимость с х8664, ARM64 и RISCV64. Также в компилятор интегрирована экспериментальная поддержка GPU и NPU (RK3588) для реализации гетерогенного режима работы. Бэкенд оптимизирован за счет использования известных библиотек для ускорения инференса: oneDNN, XNNPACK, ACL, а также собственной проприетарной библиотеки. Изначально наша библиотека была заточена только под RISCV. В дальнейшем мы подстроились под требования бизнеса и добавили оптимизированные имплементации математических ядер для ARM64 и x86. Что касается RISCV, то в библиотеке мы оптимизировали и покрыли тестами порядка 30 наиболее частотных слоев нейросетей: Convolution, Pooling, Reorder, Split и многие другие. Помимо этого, была добавлена интеграция с musthave инференсбиблиотеками oneDNN и XNNPACK. Практически все оптимизации под RISCV были выполнены для формата данных FP32, так как он поддерживался на уровне спецификации RVV. Чего нельзя сказать про FP16: поддержка этого формата появилась значительно позже с расширением Zvfh. Так как в системе инструкций RVV нет нужных команд для эффективного int8инференса, FP32 виделся единственным адекватным, простым и дающим максимально точные результаты решением. В библиотеке мы реализовали экспериментальную поддержку int8ядер для ускорения примитивов Convolution и Fully Connected с использованием RVV. На Lichee Pi удалось получить примерно двукратный прирост производительности по сравнению с FP32. Чтобы избежать переполнения 16битных аккумуляторов, анализируются значения весов и определяется, сколько итераций умножения с накоплением можно сделать перед прибавлением промежуточного 16разрядного результата к значению 32разрядного. Схема получается сложной и уменьшает число доступных векторных регистров изза буферизации в 16битных аккумуляторах, но все же дает заметный выигрыш в производительности. В целом, основную часть тестов по оптимизации инференса и сам компиляторный подход мы прогоняли именно на плате Lichee Pi c RVV 0.7.1, так как первые платы с поддержкой RVV 1.0 — Kendryte CanMVK230 и Banana Pi BPIF3 — пришлось ждать довольно долго. Их возможности мы успели оценить только поверхностно, но в будущем протестировали бы их в полной мере. Наши библиотека и компилятор поддерживают тулчейны Xuantie и Синтакор, работают как с решениями на базе THead через Xuantieтулчейн, так и с релизной версией RVV 1.0. Код можно собирать с RVV и без него, например, для запуска на RV64GC платах. Мы не оптимизировали скорость скалярного кода, сосредоточившись на работе с RVV. Для ускорения инференса квантованных нейросетей мы добавили в библиотеку поддержку кастомного расширения XTheadVdot, но это скорее технологический эксперимент, чем универсальное решение. При оптимизациях инференса на RISCV мы старались руководствоваться законом Парето: 20% усилий дают 80% результата. Компиляторные оптимизации и векторные интринсики приносят быстрый результат при достаточной производительности. Если полученных результатов недостаточно, то, например, для наиболее интенсивных вычислительных примитивов типа Convolution или GEMM мы прибегали к «тяжелой артиллерии»: RISCV Assembler и более продвинутая ступенька — RISCV JIT Assembler на базе Xbyak. Они как раз и давали нам необходимый performance boost . Соответственно, чем больше усилий мы затрачивали, тем лучше была производительность. Обо всем по порядку. Компиляторные интринсики — простой и распространенный способ ускорить код за счет векторизации, и в RISCV также есть свой набор интринсиков. После обновления тулчейна Синтакор мы столкнулись с изменениями в синтаксисе интринсиков. Поэтому мы добавили в код специальные обертки, скрывающие детали реализации, тем самым упростив жизнь программиста. Это позволило собирать код под интринсики разных версий. Такое решение обратно совместимо со старыми версиями тулчейна Синтакор, а также поддерживает интринсики для версий RVV 0.7.1 и 1.0. В своей библиотеке мы использовали векторные интринсики для оптимизации вычислительных ядер в двух случаях: нужно получить хороший прирост производительности без глубоких доработок, нет задачи получить максимальную производительность на конкретном слое нейросети. Но для самых нагруженных операций, например Convolution и Fully Connected, интринсиков было недостаточно. И здесь нам пришлось прибегнуть именно к нему. К ассемблеру. Осваивать RISCV ассемблер мы начинали со вставок, поэтому в библиотеке есть несколько демонстрационных ядер вроде простого eltwise_add — поэлементного сложения двух тензоров. Для полноценной оптимизации свертки пришлось написать ее целиком на RISCV ассемблере с поддержкой RVV. Больше всего времени ушло на разбор нетривиальной передачи параметров в ассемблерное ядро (calling convention) для соответствия RISCV ABI, затем — на реализацию самого алгоритма свертки и ее объединения (fusing) с типичными постоперациями (ReLU, Add, Sum). Чтобы упростить разработку, мы использовали макросы. Трудозатраты окупились: ассемблерная версия дала прирост производительности на десятки процентов по сравнению с версиями, реализованными на интринсиках. Но стали видны очевидные проблемы: низкая гибкость, сложная отладка и ограниченные возможности по дальнейшему расширению. Мы решили пойти еще дальше. Мы выжали из RISCV ассемблера все, что могли, но достигли границы его возможностей: дальше требовалось гибкое решение, которое сохранило бы скорость низкоуровневого кода и позволило бы конфигурировать его под конкретные параметры примитивов. Таким решением стал JITассемблер. Технология JIT (JustInTime) — это возможность компиляции кода непосредственно во время выполнения программы, что дает полный контроль при оптимизации и конфигурируемость генерируемого кода. Существуют разные библиотеки JITгенерации для C: Xbyak, Biscuit, Asmjit, MIR. Мы изучили несколько из них и выбрали Xbyak — в первую очередь изза его тесной интеграции с библиотекой oneDNN, которую мы уже активно использовали. Xbyak — это headeronly библиотека на C. Вклад в ее портирование на RISCV во многом внес наш коллега Павел Замелин. В библиотеку была добавлена поддержка основных расширений RISCV ISA (IMAFDC) и RVV 0.7.1 и 1.0. Преимущество Xbyak перед обычным ассемблером в том, что JIT позволяет сразу компилировать код под конкретные параметры — размерность тензоров, размеры ядер свертки, характеристики железа, — благодаря чему на выходе получается вариант кода с наиболее высокой производительностью. Добавляя производительности, Xbyak также упрощает разработку: код пишем на C, поэтому он компактнее, читается и отлаживается проще. В отличие от «жестко пришитых» ассемблерных реализаций, JIT дает гибкость без потери скорости. Можно, например, обращаться к регистрам по индексам и использовать это в циклах, а в CompileTime — убирать ветвления, зависящие от константных значений. Попробуем представить оптимизацию свертки на «чистом» RISCV ассемблере. Это «проклятие размерности»: миллионы возможных комбинаций разных размеров ядра, strides, dilations, pads, активационных функций, которые желательно «склеивать» со сверткой. В итоге либо приходится писать десятки отдельных реализаций под разные комбинации, либо ограничиваться несколькими ключевыми вариантами и мириться с потерей производительности. JIT решает эти проблемы: мы генерируем код под каждый вариант свертки. А если при генерации учитывать особенности железа — кеши и ширину векторных регистров, — то скачок в производительности становится еще заметнее. Мы реализовали на Xbyak RISCV несколько самых частотных и тяжелых ядер с оптимизациями под RVV 0.7.1 и 1.0: convolutiondeconvolution, pooling, inner product. Был также написан механизм поддержки различных активационных функций в виде постопераций к примитивам. Тут логично спросить: почему не взять готовое решение — те же TFLite, OpenVINO, ONNX Runtime, — к нему «прикрутить» оптимизированный бэкенд вроде XNNPACK или oneDNN и радоваться качественному инференсу на RISCV? Развитие RISCV железа опережает развитие фреймворков глубокого обучения и сопутствующих библиотек. Сейчас ситуация уже лучше, но еще пару лет назад в том же XNNPACK почти не было полноценного векторного кода для RISCV — только хорошо оптимизированные скалярные ядра. Быстрое развитие RISCV привносит некоторый хаос по части тулчейнов и расширений ISA. Крупнейшие вендоры (THead, SiFive) не ждут, пока появятся ратицифированные и стандартизированные ISA. Вместо этого они побыстрому создают свои собственные системы инструкций и тулчейны, чтобы не проиграть на рынке и вывести на него свои чипы раньше конкурентов. На выходе мы имеем несколько версий векторных расширений (как стандартизированных, так и кастомных), калейдоскоп матричных расширений (SiFive VCIX, SpacemiT IME, а также стандартные RISCV IME AME) и целый набор тулчейнов и версий интринсиков со своими уникальными особенностями. Поэтому свой тензорный компилятор при поддержке JITассемблера выглядят достаточно мощной связкой, помогающей не запутаться во всем этом «зоопарке» и получить возможность быстрее проводить эксперименты с разными ISA на новых RISCV платах. Запуск нескольких моделей на Lichee Pi через собственный компилятор также впечатлил приростом производительности: примерно в два раза по сравнению с TFLite XNNPACK. Причем итоговая производительность платы соответствовала уровню Raspberry Pi 4, а там «под капотом» ARM64 с NEON, который оптимизирован через XNNPACK. Мы тестировали в основном легковесные модели, которые способны работать на мобильных устройствах без NPU, — часть из них используется в типичных задачах обработки изображений в YADRO. На таких задачах Lichee Pi продемонстрировала производительность примерно уровня CortexA72 и A73. Мы провели эксперименты по оптимизациям инференса на RISCV, а также внедрили поддержку этой архитектуры в собственный инференсфреймворк. Тесты показали: современные отладочные платы с векторными и матричными расширениями можно использовать для запуска легковесных AIнагрузок на RISCVядрах. Mango Pi была полезна для первых шагов, Banana Pi удивила наличием матричного расширения, а Lichee Pi стала нашим фаворитом по части стабильности и производительности. Наиболее популярные фреймворки и библиотеки с оптимизированным инференсбэкендом все еще слабо поддерживают RISCV. Есть проблемы в дизайнах: может вылезти неприятная errata или illegal instruction, а пропускная способность подсистемы памяти не выдерживает конкуренции с решениями x86 и ARM. Все это оставляет много интересных тем для будущих материалов. Если вам хочется увидеть продолжение экспериментов с новыми платами — дайте знать в комментариях!
| 24,747
|
https://habr.com/ru/articles/976424/
|
habr.com
|
В мире современного программирования эффективное использование ресурсов, включая память, является ключевым аспектом разработки приложений. Сегодня мы поговорим о том, как можно оптимизировать доступные ресурсы в процессе разработки. Язык программирования C , несмотря на то, что обеспечивает автоматическое управление памятью с помощью механизма сборки мусора (GC), требует от разработчиков специальных знаний и навыков для оптимизации работы с памятью. Итак, давайте рассмотрим различные стратегии и методы оптимизации памяти в C, которые помогают создавать эффективные и быстрые приложения. Прежде чем начать, я хотел бы отметить, что эта статья не является панацеей и может рассматриваться лишь как вспомогательное средство для ваших дальнейших исследований. Прежде чем углубляться в детали оптимизации памяти в C, важно понимать различие между управляемой и неуправляемой памятью. Это память, управление которой полностью лежит на плечах CLR (Common Language Runtime). В C все объекты создаются в управляемой куче и автоматически уничтожаются сборщиком мусора, когда они больше не нужны. Это память, управляемая разработчиком. В C вы можете работать с неуправляемой памятью, взаимодействуя с низкоуровневыми API или используя ключевые слова unsafeand и and fixed . Неуправляемая память может использоваться для оптимизации производительности в критически важных участках кода, но требует тщательного обращения во избежание утечек памяти или ошибок. В Unity практически нет неуправляемой памяти , а сборщик мусора работает несколько иначе, чем в чистом .Net, поэтому вам следует полагаться на себя и понимать, как работает управляемая память на базовом уровне, чтобы знать, при каких условиях она будет очищена, а при каких — нет. Выбор подходящей структуры данных — ключевой аспект оптимизации памяти. Вместо использования сложных объектов и коллекций , которые могут потреблять больше памяти изза дополнительных метаданных и информации управления, следует отдавать предпочтение простым структурам данных, таким как массивы , списки и структуры . В этом примере string[] массив требует меньше памяти по сравнению с исходным, Liststring поскольку не имеет дополнительной структуры данных для управления динамическим изменением размера . Однако это не означает, что всегда следует использовать массивы вместо списков. Следует понимать, что если вам часто приходится добавлять новые элементы и перестраивать массив, или выполнять сложные поиски, которые уже предусмотрены в списке, лучше выбрать второй вариант. Насколько мы знаем, классы и структуры довольно похожи друг на друга, отя и с некоторыми различиями (только это не тема данной статьи), но всё же у них есть существенные различия в способе организации в памяти нашего приложения. Понимание этого может значительно сэкономить время выполнения и оперативную память, особенно при работе с большими объёмами данных. Давайте рассмотрим несколько примеров. Итак, предположим, у нас есть класс с массивами и структура с массивами . В первом случае массивы будут храниться в оперативной памяти нашего приложения, а во втором — в кэше процессора (с учетом некоторых особенностей сборки мусора, которые мы обсудим ниже). Если мы будем хранить данные в кэше CPU , мы ускорим доступ к необходимым данным, в некоторых случаях от 10 до 100 раз (конечно, все зависит от особенностей CPU и RAM , а в наши дни процессоры стали гораздо умнее взаимодействовать с компиляторами, обеспечивая более эффективный подход к управлению памятью). Таким образом, со временем, по мере заполнения или организации нашего класса, данные перестанут располагаться вместе в памяти изза особенностей обработки кучи, поскольку наш класс является ссылочным типом и располагается в ячейках памяти более хаотично. Со временем фрагментация памяти затрудняет перемещение данных в кэш для процессора, что создает проблемы с производительностью и скоростью доступа к этим данным. Рассмотрим варианты того, когда следует использовать классы, а когда — структуры. Вы работаете с небольшими массивами. Для того чтобы результат можно было измерить, вам нужен достаточно большой массив. У вас слишком большие объемы данных. Процессор не может кэшировать достаточное количество данных, и в итоге они оказываются в оперативной памяти. В структурах есть ссылочные типы, такие как String. Они могут указывать на оперативную память так же, как и классы. Вы недостаточно использует массив. Для корректной работы нам необходима фрагментация. Вы используете сложную коллекцию, например, List. Нам необходимо фиксированное выделение памяти. Вы не обращаетесь к массиву напрямую. Если вы хотите передавать данные функциям, используйте класс. Вам попрежнему нужна функциональность классов. Не стоит писать неоптимальный код, если вам нужна как функциональность классов, так и производительность структур. Например, моделирование воды, в котором используется большой массив векторов скорости. Градостроительная игра с множеством игровых объектов, обладающих одинаковым поведением. Например, автомобили. Система частиц, работающая в режиме реального времени. Рендеринг на CPU с использованием большого массива пикселей. Увеличение производительности на 90% — это много, поэтому, если вас это заинтересовало, я настоятельно рекомендую провести собственные тесты. Также хочу привести пример тестов производительности со смешанными элементами массивов, основанных на классах и структурах (выполнено на процессоре Intel Core i511260H 2,6 Гц, итеративно на 100 миллионах операций с 5 попытками ): Да, речь идёт об огромных объёмах данных, но я хотел подчеркнуть, что компилятор не может угадать, как вы хотите использовать эти данные, в отличие от вас самих, — и только вы сами решаете, как хотите получить к ним доступ. Утечки памяти могут возникать изза небрежного обращения с объектами и ссылками на них. В C сборщик мусора автоматически освобождает память, когда объект больше не используется, но если в памяти остаются ссылки на объекты, они не будут удалены . При работе с управляемыми ресурсами, такими как файлы, сетевые подключения или базы данных, убедитесь, что они надлежащим образом освобождаются после использования. В противном случае это может привести к утечкам памяти или исчерпанию системных ресурсов. Итак, давайте рассмотрим пример кода, демонстрирующего утечку памяти в C: Уже догадались почему в этих двух примерах происходят утечки? В C существует множество способов избежать утечек памяти . Мы можем предотвратить утечки памяти при работе с неуправляемыми ресурсами с помощью оператора using , который внутренне вызывает метод Dispose() . Синтаксис оператора using выглядит следующим образом: При использовании управляемых ресурсов, таких как базы данных или сетевые соединения, также рекомендуется использовать пулы соединений для снижения накладных расходов на создание и удаление ресурсов. При работе с большими объемами данных важно избегать ненужного копирования и использовать эффективные структуры данных. Например, если вам нужно обрабатывать большие текстовые строки, используйте StringBuilder вместо обычных строк, чтобы избежать ненужного выделения памяти. Также следует избегать ненужного выделения памяти при работе с коллекциями. Например, если вы используете LINQ для фильтрации списка, вы можете преобразовать результат в массив с помощью соответствующего ToArray() метода, чтобы избежать создания лишнего списка. Профилирование кода позволяет выявлять узкие места и оптимизировать их для повышения производительности и эффективности использования памяти. Существует множество инструментов профилирования для C , таких как dotTrace , ANTS Performance Profiler и Visual Studio Profiler . В Unity есть собственный профилировщик памяти . Подробнее о нём можно прочитать здесь . Определить участки кода, которые потребляют больше всего памяти. Выявлять утечки памяти и ненужные выделения памяти. Оптимизировать алгоритмы и структуры данных для снижения потребления памяти. В зависимости от конкретных сценариев использования вашего приложения , некоторые стратегии оптимизации могут быть более или менее подходящими. Например, если ваше приложение работает в реальном времени (как игры), вы можете столкнуться с проблемами производительности изза сборки мусора, и вам может потребоваться использовать специализированные структуры данных или алгоритмы для решения этой проблемы (например, Unity DOTS и Burst Compiler ). Хотя использование unsafe памяти в C должно быть осторожным и ограниченным, существуют сценарии, когда использование unsafe кода может значительно повысить производительность. Это может быть особенно полезно при работе с большими объемами данных или при написании низкоуровневых алгоритмов, где накладные расходы на сборку мусора становятся значительными. Однако использование unsafe кода требует серьезного понимания внутренних механизмов работы с памятью и многопоточностью в .NET, а также дополнительных мер предосторожности, таких как проверка границ массивов и бережное обращение с указателями. Оптимизация памяти в C — критически важный аспект разработки эффективных и быстрых приложений. Понимание основных принципов управления памятью, выбор правильных структур данных и алгоритмов, а также использование инструментов профилирования помогут вам создать эффективное приложение, которое рационально использует системные ресурсы и обеспечивает высокую производительность. Однако не забывйте, что помимо оптимизации кода, следует также оптимизировать ресурсы приложения (например, это особенно актуально для игр, где необходимо работать со сжатием текстур, оптимизацией рендеринга, динамической загрузкой и выгрузкой ресурсов с помощью пакетов и т. д.). И, конечно же, спасибо за прочтение статьи, я с удовольствием обсужу с вами различные аспекты оптимизации и кода.
| 9,721
|
https://habr.com/ru/articles/975178/
|
habr.com
|
В типовом BIпроекте данные проходят некоторый путь от источника данных до аналитического отчёта: Источник данных ETLпроцессы DWH (витрины) OLAPcube Меры На выходе получаем множество мер — ключевых показателей бизнеса вроде: "Выручка", "Средний чек", "Конверсия"; каждая из которых это результат цепочки трансформаций данных через SQLпроцедуры, представления и DAXформулы. Когда в проекте более 200 мер, удержать все детали в голове сложно, и при вопросе пользователя: "Откуда берётся значение в мере [Долг поставщика]?", разработчик вынужден: Проследить до stored procedures и понять логику расчета; В зависимости от характера вопроса и сложности самого показателя на одну меру может потребоваться 1520 минут. Первоначальное решение было реализовано в виде MCPсервера, основная задача которого — создавать однотипные промпты для списка переданных мер, с указанием расположения составных частей проекта (.bimфайла, процедур и представлений). Ответ MCPсервера возвращается Cursorагенту и тот действует в соответствии с полученной инструкцией создает новое описание, вставляет в документацию. Плюсы: автоматизируем значительную часть "ручного труда", связанного с составлением описания мер, учитывающего особенности всего процесса трансформации данных внутри проекта. Недостатки: выявленные при эксплуатации при единовременной передаче обширного списка мер может не хватить контекстного окна модели, выбранной при запуске Cursorагента, для составления документации по всему перечню мер (агент падает); при обработке списка мер агент может либо зацикливаться, либо частично переписывать ранее созданные блоки для уже обработанных мер (приводит к перерасходу токенов); вышеперечисленные пункты требуют ручного управления процессом разбивать список мер на небольшие части (23 меры), следить за ходом выполнения; при обработке даже 23 мер за один запуск Cursorагента желателен выбор "дорогих" моделей для успешного завершения задачи. Пример вызова MCPserver techspec (в ветке main находится версия MCPсервера, вызов которого показан на скрине). Название меры: Колво Тип: Мера (Measure) Источник: OLAP.bim Папка отображения: Базовые меры Формат отображения: ,0 Мера "Колво" предназначена для подсчета общего количества товаровуслуг в заказах клиентов с учетом определенных фильтров. Данная мера является базовой и используется для расчета других производных показателей в аналитических отчетах. ionos Основная таблица: М001 Заказы Клиентов Основное поле: [Количество] Дополнительные поля для фильтрации: [ВГО булево] булево поле для исключения ВГО (внутригрупповые операции) [Отмененный] булево поле для исключения отмененных заказов CALCULATE ( SUM ( М001 Заказы Клиентов[Количество] ), NOT М001 Заказы Клиентов[ВГО булево], NOT ( М001 Заказы Клиентов[Отмененный] ) ) Основная агрегация: Суммирование значений поля [Количество] из таблицы М001 Заказы Клиентов. Фильтрация по ВГО: Исключение записей, где [ВГО булево] TRUE. Фильтрация по статусу: Исключение отмененных заказов, где [Отмененный] TRUE. Контекстная фильтрация: Мера автоматически применяет фильтры из срезов и других измерений. Формат отображения: Целое число с разделителями тысяч (,0) Общее количество товаров в заказах без дополнительных фильтров. Количество по клиентам с фильтром по конкретному клиенту. Количество по периодам с фильтром по дате заказа. Количество по товарным группам с фильтром по категории товара. Представление DWH: Данные для меры поступают из представления [uni].[vt_order]. Таблицы фактов DWH: Представление [uni].[vt_order] агрегирует данные из следующих таблиц: [dbo].[fact_order] [dbo].[fact_cancelled_order] [dbo].[fact_order_characteristics_received] Хранимые процедуры: Эти таблицы фактов загружаются и обрабатываются следующими хранимыми процедурами: [dbo].[sp_load_fact_order] [dbo].[sp_load_fact_cancelled_order] [dbo].[sp_load_fact_order_characteristics_received] Назначение: Процедура формирует основной набор данных для анализа продаж. Источники и логика: Основные данные: Берутся из документа "Заказ клиента" из системы 1С. Для каждой товарной позиции в заказе извлекается информация о количестве, цене, сумме, предоставленных скидках и ставке НДС. Обогащение данных: Информация о заказе дополняется сведениями из связанных справочников 1С: Клиент и партнер: Кто является покупателем. Менеджер: Кто ответственный за заказ. Номенклатура: Какой товар заказан. Организация: От лица какой нашей организации оформлен заказ. Склад, подразделение, сезон: Дополнительные аналитические разрезы. Финансовые показатели: Процедура также рассчитывает состояние оплаты по заказу, обращаясь к регистру "Расчеты с клиентами", и определяет наличие просроченной задолженности. Бизнесценность: Позволяет получить полную и обогащенную картину по каждому заказу для построения отчетов по продажам, маржинальности и эффективности работы менеджеров. Назначение: Процедура собирает данные по отмененным позициям в заказах клиентов. Источники и логика: Основные данные: Как и в предыдущей процедуре, источником является документ "Заказ клиента" из 1С. Ключевое отличие — отбираются только те строки товаров, у которых установлен признак "Отменено". Дата отмены: Для понимания, когда именно произошла отмена, процедура обращается к регистру "История изменений заказа клиента". Контекст заказа: Вся остальная информация (клиент, менеджер, суммы, скидки) подтягивается аналогично процедуре загрузки основных заказов, чтобы сохранить полный контекст на момент отмены. Бизнесценность: Дает возможность анализировать объем и причины отмен, оценивать упущенную выручку и выявлять тенденции, связанные с отказами от товаров. Назначение: Процедура отслеживает поступление товаров по заказам, у которых в процессе обработки менялись характеристики (например, цвет, размер). Источники и логика: Основные данные: Процедура отталкивается от данных, где зафиксированы факты поступления товаров по заказам, в которых были изменения (fact_order_characteristics_changes). Связь с заказом: Используя номер заказа, процедура обращается к исходному документу "Заказ клиента" в 1С, чтобы получить полную информацию о клиенте, менеджере, дате и других атрибутах заказа. Фильтр: Отбираются только те записи, которые отражают фактическое поступление товара (quantity_received 0), а не просто резервирование. Бизнесценность: Позволяет контролировать и анализировать исполнение "сложных" заказов, где характеристики товара были изменены. Это помогает понять, как такие изменения влияют на сроки и полноту выполнения заказа. Для устранения недостатков, выявленных во время эксплуатации, было решено использовать вызов Cursor CLI из скрипта, и управлять процессом при помощи LangGraph . Получаем агента на базе LangGraph , который: INPUT NODE — инициализирует состояние графа, принимая запрос пользователя и пути к рабочим директориям (процедуры, OLAP, документация); PROCESS MEASURES LIST — обработка полученного сообщения от пользователя (структурирование данных). Задача извлечь из текста структуру JSON с топиками (бизнесразделами) и мерами; CURSOR CLI — итерируется по извлеченному списку мер. Для каждой меры вызываем cursoragent с инструкцией использовать MCP Server techspec . Документация Cursor CLI . Репозиторий LangGraph c учебными материалами и инструкциями по установке. Плюсы: Итеративный вызов Cursor CLI , с передачей в качестве аргумента лишь одной меры, обеспечивает: возможность использовать более дешевые модели, так как снижаются требования к размеру окна контекста; логирование результатов выполнения узла; сохранение описания в отдельный документ (решается проблема с зацикливанием Cursorагента, и перерасходом токенов). Недостатки: так как циклический вызов Cursor CLI выполняется внутри одного узла, то логируется общий итог выполнения "ноды", без декомпозиции в графе обработки каждой, отдельно взятой, меры. Для наглядности обратимся к скринам, описывающим пример обработки такого промпта: На первом скрине видно, что в measure_list_node входной промпт был переложен в структуру, описанную для атрибута input_mrs класса OverallState . Каждая из перечисленных мер (Колво, Рейтинг Потенциал) была отработана циклическими вызовами Cursor CLI внутри cursor_cli_node . Однако, в Waterfall трассировки мы не видим деталей по каждому отдельному вызову Cursor CLI . Это стало поводом переработки графа в его итоговую структуру. Главное отличие новой версии — переход от линейной обработки к циклическому графу состояний (Cyclic State Graph). Ключевые изменения: введен узел process_router_node , который управляет итерациями. Он выбирает одну текущую меру для обработки и передаёт её исполнителю ( Cursor CLI ); узел Cursor CLI теперь обрабатывает ровно одну задачу за раз и возвращает управление роутеру; добавлен новый узел combine_doc_node теперь, после завершения всех итераций, агент автоматически собирает все созданные фрагменты в единый документ combined_ manual.md . Финальная версия агента находится в репозитории lcmanualcreatoragent . Рассмотрим пример работы агента, передав ему следующий промпт: Отлично! Теперь мы видим последовательные вызовы cursor_cli_node , с фиксацией в state результатов работы каждого шага. Напомним, что перед агентом стояла задача составить описание трёх мер из двух бизнесразделов ( Продажи : "Колво" и "Рейтинг Потенциал"; Транспорт : "Колво рейсов"). Общая продолжительность работы агента составила 10 мин. (625 сек.). Вызов Cursor CLI осуществлялся с хинтом model "auto" . Рассмотрим детально, что происходит внутри агента от момента получения запроса до создания финальной документации. Агент получает пользовательский запрос в произвольном формате (желательно подавать в markdown); Инициализирует граф состояний ( OverallState ) с путями к рабочим директориям; Проверяет наличие необходимых компонентов: .bimфайла, SQLпроцедур, представлений. Что происходит: Узел отправляет запрос к локальной LLM (через LM Studio) для извлечения структурированного списка мер в формате JSON. Механизм фалбэка: Если LLM недоступна или возвращает ошибку (таймаут, неправильный формат), агент автоматически переключается на regexпарсинг: Этот шаг критически важен: от качества структурирования зависит корректность всех последующих операций. Что происходит: Роутер определяет следующий шаг выполнения, отвечая на вопрос: "Остались ли необработанные меры?" Важная деталь: Роутер не обрабатывает все меры сразу, а выбирает одну текущую меру и передаёт её в исполнитель. Это обеспечивает гранулярность логирования. Что происходит: Для выбранной меры формируется промпт и вызывается Cursor CLI с инструкцией использовать MCPсервер techspec . Парсинг вывода CLI для извлечения пути к созданному файлу; Если успешно добавить в processed_mrs , сохранить путь в created_docs ; Если ошибкатаймаут (10 мин) добавить в missed_mrs ; input_mrs остаётся неизменным — сохраняется исходный список для отчётности. Что происходит: После обработки одной меры управление возвращается в Process Router Node (см. Шаг 3). Цикл продолжается до тех пор, пока все меры не будут обработаны или добавлены в missed_mrs . Что происходит: Когда все меры обработаны, агент собирает отдельные файлы в единый документ. Результат: Создаётся файл combined_manual.md со структурой:
| 11,174
|
https://habr.com/ru/articles/973778/
|
habr.com
|
Последние 2 года я выстраивал и непрерывно улучшал собственную систему планирования в Obsidian. За это время я обнаружил коечто важное, что решил разделить с сообществом. И вот что я заметил: почти все, кто пытается выстроить систему управления, начинают с одного и того же вопроса — «Какой инструмент мне взять?» Notion? Jira? Obsidian? Linear? Асана? Тут я всегда отвечаю одно: выбор инструмента — это последний вопрос, а не первый. Люди берут красивый инструмент. Красят всё красиво. Неделю всё работает идеально. Потом система рассыпается. Потому что инструмент не соответствует реальному workflow конкретного человека. Типичная история: коллега рассказал мне, как он пытался использовать Notion по гайду из YouTube. Сделал классную базу данных. А потом просто бросил — было лень её заполнять. Или вариант потяжелее: в компании, где я работал, внедрили корпоративный инструмент. Все вынуждены вводить туда данные, но никто толком не знал, зачем. Система имела нулевую ценность, но требовала постоянного обслуживания. Мне это надоело. Я решил понять: как на самом деле работает управление информацией? Ошибка первая: думать, что инструмент решит проблему Это не так. Инструмент — это всего лишь холст. Если вы не знаете, что на этом холсте рисовать, инструмент не поможет. Я видел людей, которые переходили с Notion на Jira, потом на Obsidian, потом обратно. Проблема была не в инструменте. Проблема была в том, что они не понимали, как на самом деле работает их процесс. В интернете полно гайдов: «Вот система для Obsidian», «Вот как использовать Notion для управления проектами». Люди копируют, и примерно на третий день понимают, что это им не подходит. Потому что это система для совсем других задач и совсем других людей. Ошибка третья: ждать идеального решения вместо того, чтобы начать Я видел инженеров и руководителей, которые месяц искали идеальный инструмент вместо того, чтобы просто начать документировать свою работу. Результат: они всё ещё не знают, что им нужно. Я решил не искать готовое решение, а выстроить своё. Сначала я просто писал. Как я работаю, какую информацию я ищу, где я её ищу, как я с ней работаю. Неделя документирования дала мне больше инсайтов, чем месяц чтения гайдов. Есть информация, которая редко меняется (контракты, требования, принципы) Есть информация, которая меняется каждый день (статус работ, замечания, решения) Есть информация, которую нужно видеть быстро (близкие дедлайны, блокеры, критические задачи) Есть информация, которую нужно отслеживать в истории (кто что обещал, когда и сделал ли) Система, которую я выстроил, работает не потому, что Obsidian лучше других. Работает потому, что она соответствует тому, как я на самом деле работаю. Не ищите идеальный инструмент. Возьмите то, что у вас есть (Google Sheets, Notion, даже бумагу). И начните документировать неделю своей работы. Какими проектами или предметными областями вы сейчас управляете? Потом, когда вы поймёте, что вам нужно, вы сможете выбрать правильный инструмент. Или построить правильную систему в том инструменте, который уже есть. Я планирую поделиться конкретными подходами и техниками, которые я использую в своей работе. Но сначала нужно выяснить: а какие у вас есть болевые точки? Какие проблемы вы решаете сейчас? Если вы теряете информацию, если вам сложно отследить важные дедлайны, если вы забываете о коммуникации или результатах встреч, если вы тратите слишком много времени на поиск нужных данных — пишите в комментариях. Это поможет мне сделать материалы более полезными.
| 3,508
|
https://habr.com/ru/articles/974882/
|
habr.com
|
Мы привыкли к классическому набору любого сайта: robots.txt экономит ресурсы сервера, запрещая поисковикам сканировать мусорные страницы, а sitemap.xml, наоборот, скармливает поисковикам каждую доступную страницу для полной индексации. Однако ситуация изменилась, когда сайты начали читать не только поисковые роботы, но и языковые модели. Для них существующие стандарты не подходят: sitemap избыточен и ресурсоёмок, а HTMLкод создаёт слишком много шума. Понадобился новый способ доставки актуального, очищенного контекста в сжатом виде специально для AIагентов и языковых моделей. В сентябре 2024 года Джереми Ховард (создатель fast.ai ) предложил решение в виде стандарта llms.txt . Давайте разберемся, как он работает, чем отличается от llmsfull.txt , какую пользу могут извлечь разработчики и как быстро добавить его поддержку в свой проект. Когда вы просите ChatGPT, Gemini, Perplexity или Cursor прочитать документацию библиотеки, чтобы написать код, модель сталкивается с несколькими проблемами: Технические барьеры и глубина: LLM не поисковые роботы. В чатинтерфейсах модели часто "ленятся" или технически не могут переходить по десяткам ссылок. Если вы дадите ссылку на корень документации, модель часто прочитает только эту страницу. Кроме того, многие сайты построены как SPAприложения и требуют выполнения JavaScript, с чем встроенные браузеры LLM нередко не справляются, видя лишь пустой div id"root"div Грязные данные: Современные сайты это смесь HTML, CSS, JavaScript, рекламных блоков и навигации, которые бесполезно расходуют токены. Даже у моделей с контекстом в миллион токенов есть предел "внимания". Скармливать им весь сайт целиком это дорого и снижает качество ответов. Отсутствие приоритетов: sitemap.xml содержит ссылки на всё подряд. LLM не знает, какие страницы важны, а какие второстепенны, устарели или носят юридический характер. llms.txt — это стандарт чистых данных для нейросетей. Он превращает ваш сайт или документацию в AIfriendly ресурс, гарантируя точные ответы без галлюцинаций по актуальным данным. Стандарт состоит из трех компонентов: Первая часть предложения создавать "чистые" версии страниц. Если у вас есть страница документации docsapi.html , по тому же адресу (или с суффиксом .md ) должен быть доступен файл с чистым содержимым в Markdownформате, например: Это индексный Markdownфайл в корне сайта, выполняющий роль карты. В отличие от sitemap.xml, он содержит ссылки не на все страницы подряд, а только на самые важные и актуальные материалы, специально отобранные для работы с ИИ. Файл включает краткое описание проекта, список ссылок на подготовленные .md документы и сжатые аннотации к ним. Благодаря этому модель сразу видит приоритеты, понимает структуру проекта и знает, где искать детали. llmsfull.txt — это файл полного контекста. Он склеивает все страницы из llms.txt в один текст, чтобы передать AI всю базу знаний одним файлом. Этот файл формируется автоматически специальным скриптом. (В спецификации FastHTML он также называется llmsctxfull.txt, но такую вариацию почти никто не использует). Хотя Markdown понятен нейросетям и без строгой схемы, спецификация требует соблюдения определенного порядка секций. Это нужно, чтобы классические инструменты (парсеры, CLIутилиты) могли автоматически собирать контекст. Заголовок H1: название проекта или сайта ( обязательный элемент ). Цитата (Blockquote): Краткое саммари проекта. Самая важная информация. Описание (Markdown): Произвольный текст с деталями, инструкциями или подсказками для модели. Секции ссылок (Заголовки H2, H3 и т.д.): тематические разделы с перечислением ссылок. Внутри списки вида: [Название](ссылка): Краткое описание Секция "Optional" (H2): ссылки на второстепенные материалы. Они игнорируются при сборке сжатого контекста, но попадают в полную версию. Поддерживать два набора документации (HTML и Markdown) вручную не вариант. Несмотря на молодость стандарта, для большинства популярных CMS и генераторов уже есть готовые решения. GitBook: Полностью встроенная поддержка. nbdev: Инструмент от fast.ai генерирует по умолчанию. WordPress: Плагины odysseyllms и llmsfulltxtgenerator Похожие инструменты можно найти по запросам в поисковиках и на github: [ваш_фреймворк] llms.txt или llms.txt generator . Хотя llms.txt это инициатива сообщества, а не утвержденный W3C или IETF стандарт, индустрия дефакто приняла его. Несмотря на отсутствие формальной спецификации, он уже применяется в продакшене крупнейших компаний. Интерес со стороны разработчиков подтверждает и статистика GitHub. Количество файлов llms.txt в репозиториях исчисляется тысячами. Динамика популярности плагинов для генерации тоже показательна. Вот, например, как рос интерес к некоторым плагинам в этом году: Пользу от стандарта можете извлечь и вы. Попробуйте при изучении документации новой библиотеки допишите к корню сайта llmsfull.txt . Если разработчики внедрили этот стандарт, вы мгновенно получите весь необходимый контекст в одном файле, очищенном от визуального шума. Загрузив этот файл в LLM с большим контекстным окном, например Gemini 3 вы решаете проблему устаревших знаний и галлюцинаций: модель перестает выдумывать несуществующие методы из версий двухлетней давности и начинает отвечать строго по свежей документации. Так вы получаете точные ответы на вопросы и возможность комфортного вайбкодинга с актуальным стеком без необходимости вручную копировать десятки страниц или настраивать сложные парсеры. Разработчики всё чаще ищут ответы не в Google, а в диалогах с Cursor, Claude, ChatGPT или Perplexity. Это меняет саму природу SEO: битва за трафик смещается из поисковой выдачи в окно чатбота. Внедрение llms.txt это инвестиция сразу в два направления. Вопервых, вы повышаете "AIвидимость" вашего проекта: чистые Markdownзеркала позволяют моделям давать точные ответы по вашей документации, избегая галлюцинаций. Вовторых, это стратегическая ставка: логично предположить, что при обучении будущих версий моделей крупные игроки будут отдавать приоритет именно таким структурированным, очищенным от шума источникам, предпочитая их сырому HTML. Вывод прост: если ваша документация плохо читается нейросетями, она фактически перестаёт существовать для огромной части аудитории. Добавление двух текстовых файлов в корень сайта это простое но важное улучшение, которое готовит ваш проект к будущему, где веб читают не только люди, но и агенты. llmstxt.site Каталог сайтов, которые уже внедрили стандарт. directory.llmstxt.cloud Еще один каталог сайтов внедривших стандарт
| 6,491
|
https://habr.com/ru/articles/972152/
|
habr.com
|
Всем привет! Я клинический психолог и в этом посте хочу разобрать СДВГ у взрослых: что происходит в мозге, неочевидные признаки, почему есть различия в симптомах между полами и что вообще с этим делать Буду опираться на современные исследования и собственную практику работы с людьми с Синдромом Дефицита Вон Голубь пролетел, смотри! СДВГ — это пример нейроотличия, которое классифицируется в рубрике F90.0 «Нарушение активности и внимания». Оно характеризуется чрезмерной двигательной активностью, импульсивностью и трудностями с концентрацией внимания. Часто человек — победитель по жизни и сочетает в себе несколько диагнозов. Это называется: « коморбидность .» Интересный факт: В постсоветской психиатрии до сих пор есть специалисты, которые скептически относятся к нейроотличиям или депрессиям, оставляя без вопросов только шизофрению. Префронтальная кора : может быть тоньше или функционировать менее эффективно сложно в планировании, концентрации и принятия решений Объем мозга меньше (больше наблюдается у детей), что отражается на способности тормозить импульсы и удерживать внимание Червь мозжечка тоже меньше, что замедляет скорость реакции Нейромедиаторы : дисбаланс в дофамине и норадреналине, а также серотонине. Это влияет на внимание, мотивацию и настроение Также тут упомяну, что СДВГ делят на вариант с преобладанием гиперактивности, а также на вариант с преобладанием дефицита внимания. Но чаще мы видим тип, как шампунь "2 в 1" Многие ожидают увидеть при СДВГ только очень активного и забывчивого человека, но СДВГ может проявляться и так: Прокрастинация . Привет префронтальной коре: сложно начать задачу, особенно если она скучная Гиперфокус . На том, что действительно интересно: игры, хобби, иногда — новые люди или проекты. В такие моменты человек может «выпадать» из времени. Скачущие переходы внимания . Вы искали сантехника, через три клика читаете про древнеримское право, а потом внезапно покупаете новые часы, потому что заметили время и вспомнили, что часы уже пора менять.. Задачи без дофамина страдают : быт, бюрократия, «паломничество в МФЦ» за документами как особый вид наказания. Эмоциональные качели : сложно сдерживать эмоциональный импульс. Можно мгновенно загореться идеей и так же быстро перегореть. Экстравертная интроверсия : человек может много общаться, потом быстро устать и, ни с кем не попрощавшись, уйти с мероприятия. Каждый второй на сессии говорит:«ой, кажется у меня СДВГ», а также все соцсети рекомендуют дюжину видео с гиперфокусом. Давайте разбираться, в чем тут дело Основной вопрос: стало ли СДВГ больше в следствии большего потребления контента или в следствии того, что мы стали просто больше говорить о нем и лучше диагностировать? Последние исследования говорят нам о том, что СДВГ обусловлено в первую очередь генетикой (я видела гдето исследование, что больше передается по отцу) и мы просто стали чаще его вычислять Важно помнить, что СДВГ — это континуум, где в одной части спектра — креативный, энергичный человек, который не может сконцентрироваться на деталях, а ближе к середине и концу — серьёзное влияние на качество жизни и высокая коморбидность с депрессией, тревожностью, зависимостями Для самодиагностики и нахождении своей локации на этом континууме, конечно, можно использовать стандартные опросники, как этот , но при сильных симптомах я рекомендую идти к психиатру, диагнозы ставит только он. СДВГ относят к нейроразвитийным расстройствам. Это не то же самое, что депрессия или шизофрения: нет галлюцинаций или селфхарма, но есть устойчивые особенности работы мозга, которые мешают жить 2. Медикаментозная поддержка Во многих странах первой линией терапии считаются стимулянты или некоторые нестимулянтные препараты. В России классические препараты первой линии практически недоступны. Чаще могут назначать лечение от сопутствующих состояний — депрессии, тревоги и т.д. 3. Тренинг навыков т ут мог бы быть ваш курс, но нет. Вы понимаете, какие скиллы у вас проседают: забывчивость, прокрастинация, неумение вести календарь. Это можно сделать платно в группе или, допустим, на терапии с психологом В начале практики я быстро распознавала СДВГ у мужчин: гиперактивность, импульсивная речь. Психиатры также были согласны со мной и щедро ставили диагноз. С женщинами всё оказалось сложнее. Внешне спокойные, «хорошие девочки» иногда перебегали от темы к темы, но могли спокойно сидеть, даже делали ДЗ и я и не могла предположить СДВГ, пока не порылась в исследованиях: действительно девушки с СДВГ менее гиперактивны. На это накладывается социальный контекст: мальчику разрешают бегать и шуметь — «ну мальчик же». Девочке чаще транслируют: «не носись, сядь спокойно» В итоге многие женщины активно используют маскинг: стараются выглядеть «нормально» , пряча и компенсируя свои особенности. Изза этого СДВГ у женщин нередко остаётся недодиагностированным. СДВГ это генетически обусловленное нейроотличие, которое несет обладателю дискомфорт в бытовой и карьерной жизни. При этом взамен дает креативный, нестандартный взгляд на мир и возможность гиперфокусироваться на интересных ему вещах Все есть яд и все лекарство: фармакологическое лечение требуется, когда нейроотличие выражено очень сильно и имеет коморбидность с депрессией, тревожностью и т.п. При слабой выраженности, человек может жить спокойно и без мира психотерапии просто развивая необходимые скилы по организации и не ругая себя, если чтото получается не с первого раза Спасибо за прочтение статьи! Подписывайтесь на мой телеграм канал , пишу, как сохранять здоровую менталку, если вы работаете в IT https:www.sciencedirect.comsciencearticlepiiS014976342100049X https:psychiatryonline.orgdoi10.1176appi.ajp.20230026 https:www.biologicalpsychiatryjournal.comarticleS00063223(11)002605abstract
| 5,737
|
https://habr.com/ru/articles/975340/
|
habr.com
|
Дело было вечером... Сидел я, развлекался переписыванием фронта маркетплейса с React на Preact с Brotli и нативным CSS, чтобы протестировать максимальную оптимизацию. В попытках добиться предельной производительности и скорости решил провести эксперимент по переписыванию бэка на Rust с сжатием БД в Redis — но это совсем другая история. В общем, эксперименты привели меня к идее сделать SSR на Rust, и по бенчмаркам вышел на 95,000 RPS на M4. Это уже само по себе неплохо, ниже расскажу подробнее. Rust позволяет более гибко управлять потоками и памятью. В основе RustySSR — пул V8 изолятов, привязка потоков к ядрам и многоуровневый кэш. Вместо отдельных процессов используются легковесные V8 изоляты в одном процессе Rust, по одному на поток. Это позволяет избежать блокировок: если один изолят занят, другие продолжают работу. Контекстные переключения снижают производительность. Чтобы минимизировать их, каждый поток привязывается к конкретному ядру. Это помогает держать кэш процессора (L1L2) в актуальном состоянии. В облаке эффект может варьироваться, поэтому рекомендуется проверять на профайлинге. Кэширование минимизирует рендеринг. Вместо простой HashMap с блокировками реализован двухуровневый подход: Hot Cache (L1) : Threadlocal, для быстрого доступа без синхронизации. Cold Cache (L2) : DashMap для общего доступа между потоками. Размер кэша задается в элементах (страницах), TTL — в секундах (например, cache_ttl_secs(300)). Метрики доступны через engine.cache_metrics() (hitrate, hotcold hits и т.д.). Для ускорения использованы SSEинструкции для предварительной загрузки данных в кэш CPU. Это как подогреть кофе заранее, чтобы не ждать. Hot Cache разделен на ultrahot массив (8 элементов, для сверхбыстрого доступа) и HashMap (128 элементов). Записи промотируются по LRUпринципу. HTML хранится как Arcstr, чтобы избежать копирования между потоками. Cold Cache использует DashMap с 128 шардами для снижения contention при многопоточности. Тестирование показало 19% к пропускной способности по сравнению с дефолтными 16 шардами. Очередь с таймаутом (request_timeout) предотвращает блокировки. Тесты на Apple M4 (10 ядер), с использованием wrk latency t10 c4001000 d30s на loopback, демоHTML из репозитория, прогретый кэш. В данный момент использую всю эту историю на своем портфолио https:portfolioproductionb677.up.railway.app . Оно пока сырое и преимущественно под десктоп, но как бенчмарк тоже можно использовать — в нем сложный контент с анимациями и Three.js, но загрузка чрезвычайно быстрая. Портфолио на самом дешевом Redisпакете. В реальных сценариях производительность зависит от сети, базы данных и браузера. Но даже небольшое улучшение может снизить затраты на инфраструктуру, а это полезно как минимум для экологии :) В реальных сценариях производительность зависит от сети, базы данных и браузера. Но даже небольое улучшение может снизить затраты на инфраструктуру а это полезно как минимум для экологии ) Rust предлагает инструменты для эффективных вебсерверов. Это мой опыт, который может быть полезен. Код открыт под MIT. Если пробуете, делитесь в комментариях — интересно услышать фидбек.
| 3,122
|
https://habr.com/ru/articles/975474/
|
habr.com
|
Идея вот в чем: берем стандартные JavaScript модули (ESM) и делаем их прямыми эндпоинтами для генерации любых текстовых вебассетов, таких как HTMLфайлы, CSS, SVG или даже JSON или Markdown, используя простое соглашение о именовании исходных файлов и дефолтный экспорт результата в виде строки (JavaScript Template Literal). Проще некуда и чемто похоже на PHP, верно? Но, что это нам дает? Давайте разберемся, почему JSDA (JavaScript Distributed Assets) это то, что может сделать вебразработку "грейт эгейн", после тысячи поворотов "не туда". Это будет автоматически преобразовано в обычный HTML: JSDA подразумевает следование следующим соглашениям: Для определения типа выходного файла, используется шаблон .type.js , например mypage.html.js , styles.css.js , image.svg.js и т.д. Для определения входной точки генерации статики, используется шаблон index.type.js , например index.html.js , index.css.js , index.svg.js и т.д. JSDAфайл должен быть стандартным ESMмодулем, содержащим экспорт в формате строки по умолчанию ( export default ... ) Структура каталогов при выводе результирующих файлов для статики отражает структуру исходников (мы получаем роутинг на уровне файловой системы): Идти по пути упрощения сложно. Когда мы выкидываем лишнее нам кажется, что мы можем упустить чтото важное. Но, на практике, часто бывает наоборот лишние элементы системы делают ее менее устойчивой и более уязвимой. Упрощать это искусство, которое в ретроспективе может показаться банальным. Но это далеко не так. Когда CEO Netlify, Мэтт Бильманн в 2015 году предложил архитектурную концепцию JAMStack , он сделал именно это упростил. Действительно, зачем нам CMS и база данных, со всеми их уязвимостями и потреблением ресурсов на сервере, если он (сервер), в результате должен отдавать просто статику? Зачем серверу сложная логика, если можно генерировать необходимые ассеты на этапе сборки? Почемубы не раздавать все статические файлы максимально быстро, эффективно и безопасно через CDN, минимизируя нагрузку и существенно улучшая масштабируемость при этом? И главное, зачем усложнять, если лучшего результата мы можем достигнуть упростив? Довольно контринтуитивный ход мыслей на тот момент, но очень правильный. Однако, по моему мнению, JAMStack это слишком общая концепция, набор самых верхнеуровневых рекомендаций, практически, не касающихся никаких деталей реализации и не предлагающих решения конкретных задач, которые могут обладать собственной сложностью. Многие продолжают считать, что у JAMStack подхода есть существенные ограничения, хотя это не так, ведь мы можем комбинировать все это с любыми другими практиками в любых произвольных сочетаниях. В JSDA таже философия, но больше технических деталей. Мы берем нативные возможности вебплатформы (Node.js браузер) и существующие стандарты, и, не добавляя никаких новых избыточных сущностей, решаем задачи, для которых, традиционно, используются значительно более громоздкие решения, при этом, никак себя не ограничивая в диапазоне возможностей. Если JAMStack это, преимущественно, про SSG (генераторы статических сайтов), то JSDA играет на обоих полях, как архитектура применимая для генерации статики, так и динамики. Помимо этого, JSDA никак не ограничивает вас в использовании любых вспомогательных технологий, если это потребуется. Традиционно, мы выделяем следующие варианты работы вебприложений: SPA (Single Page Application) все под контролем клиентского JavaScript, DOMдерево создается полностью динамически на клиенте. SSR (Server Side Rendering) сервер предварительно рендерит страницу, которая, впоследствии, "оживляется" на клиенте с помощью JavaScript. SSG (Static Site Generation) создаем необходимые HTMLфайлы на этапе сборки, которые затем раздаются как статика. Динамическая генерация страниц сервер генерирует HTMLфайлы на этапе запроса, результат можно кэшировать. Эти подходы не исключают друг друга. У каждого из них есть свои сильные и слабые стороны, но их можно эффективно сочетать. В сложных сценариях, например, страницы документации или промоматериалы могут быть полностью статическими, страницы с товарами могут быть, частично, предварительно созданы на сервере а частично содержать динамические виджеты (корзина), а личный кабинет пользователя может быть полностью реализован как SPA. И JSDAстек как раз применим для таких сложных сценариев, оставаясь простым и минималистичным сам по себе. В соответствии со спецификациями, ESM модули асинхронны и поддерживают асинхронные вызовы верхнего уровня Top level await . Это значит, что при генерации ассетов, мы можем делать запросы и получать данные по всей цепочке импортов и зависимостей. Мы можем обращаться к базе данных, внешним API, файловой системе и т.д. Причем, нам не нужно заботится о асинхронной сложности самостоятельно, она "маскируется" под стандартными механизмами ESM, и делая простой импорт зависимости, мы можем быть уверены, что все ее данные получены на этапе резолюции модуля. На мой взгляд, это очень мощная, но недооцененная возможность платформы. Согласно стандарту, ESMмодули автоматически кэшируются в памяти рантайма в момент их резолюции. Это позволяет делать процесс генерации более эффективным, не совершая никаких лишних операций при повторном использовании модуля. Если же, напротив, мы хотим контролировать кэширование и получать актуальные данные из цепочки импортов, мы можем использовать уникальные идентификаторы (адреса) модулей при импорте, например так: При этом, мы можем использовать параметры запроса, которые будут доступны внутри модуля через import.meta , например: Еще одна интересная штука , доставшаяся нам "бесплатно" это возможность сложной композиции результирующей строки. Этот нативный "шаблонизатор" позволяет формировать любую сложную разметку или иную структуру из компонентов, повторно использовать их и внедрять любую логику при генерации. На фоне этой возможности, модные серверные компоненты из экосистемы React и Next.js выглядят просто переусложненной глупостью. Но как нам оживлять разметку на клиенте? Как связать DOMэлементы с данными и обработчиками? Для этого у нас также есть все необходимое, нам ничего не нужно дополнительно изобретать. Решение стандартная группа спецификаций, известная как вебкомпоненты. Приведу упрощенный пример того, как это работает. Вот и все, и никакой ужасной __NEXT_DATA__ как в Next.js. Идентификатором "оживляемой" ноды является наш кастомный тег, который легко перехватывает контроль за своим участком DOM. За все отвечает сам браузер и жизненный цикл CustomElements. Помните, что вебкомпоненты вовсе не обязательно должны содержать Shadow DOM. Но что делать, если компонентов много и у них есть собственная иерархия вложенности? Это тоже просто, привожу очередной пример. На этот раз, простая рекурсивная функция нарисует нам структурированный HTML: Для более полноценной работы с вебкомпонентами вы можете использовать любую популярную библиотеку . Лично я использую Symbiote.js , так как он адаптирован для работы с независимыми от контекста исполнения HTMLшаблонами (и не только). С преобразованием JSDAфайлов в текстовые вебассеты все понятно, но возникает следующий вопрос, как нам представить обычные текстовые файлы в формате JSDA? Перед экспортом содержания файла, можно проводить любые промежуточные преобразования, например, можно добавлять нужную цветовую палитру в SVG и даже делать автоматический перевод документа через обращение к LLM. Вернемся к стандарту ESM и его замечательным возможностям, а именно к возможности загрузки модулей напрямую из CDN через HTTPS. Это полноценно поддерживается как в Node.js, так и в браузере. На уровне CDN (или даже вашего собственного ендпоинта) может происходить автоматическая промежуточная сборка и минификация модулей. Так работает множество популярных специализированных CDN для доставки кода, таких как jsDelivr, esm.run, esm.sh, cdnjs и многие другие. Это позволяет эффективно управлять внешними зависимостями, разделять циклы деплоймента для элементов сложных систем. Для управления такими зависимостями, крайне полезным инструментом является нативная браузерная технология importmap . Забудьте о всяких нелепых штуках типа Module Federation, платформа уже предоставляет нам все необходимое. Также, для работы с JSDAзависимостями (особенно в контексте сервера) отлично подходит простой советский npm , где из коробки мы получаем контроль версий. Все вышеперечисленное в предыдущем разделе объясняет наличие слова "Distributed" в акрониме JSDA . Простые и понятные модели композиции очень важны на экосистемном уровне, где поставщики решений могут быть слабо связаны между собой. В экосистеме JSDA очень просто создавать интегрируемые решения, так как вы всегда можете опираться на самые базовые стандарты и спецификации, не изобретая лишние велосипеды. Один из ключевых механизмов безопасности в JSDAстеке это SRI (Subresource Integrity) проверка целостности JSDAзависимостей через хеширование. В самом начале, я упомянул PHP, и у вас может возникнуть вопрос: если JSDA работает почти как PHP, то почему бы просто не использовать PHP? Во первых, PHP это процессор гипертекста. Работа с выходными форматами отличными от HTML (XML) там может быть не такой безболезненной, как хотелось бы. В PHP просто нет полноценного аналога шаблонных литералов, как в JS. Во вторых, JavaScript это, нравится вам это или нет, единственный язык программирования в вебе, полноценно и нативно поддерживающийся как на сервере, так и на клиенте. В третьих, и это самое главное, используя один язык вы можете повторно использовать одни и теже сущности в серверном и клиентском коде, писать, так называемый, "изоморфный" код, за счет чего ЗНАЧИТЕЛЬНО экономить на всех сопутствующих разработке процессах, включая ментальные, в вашей голове. Вам не приходится переключаться между языками, не приходится писать кучу отдельных конфигов, ваш проект проще тестировать и поддерживать c меньшими ресурсами. Благодаря изоморфизму и единому языку, JSDA , будучи, преимущественно, серверной технологией, при необходимости, может легко, и, практически бесшовно, применяться и на клиенте. Без TS в современной разработке никуда. Однако, сам TypeScript, будучи важным экосистемным инструментом статического анализа, содержит в себе ряд сложностей и спорных моментов, которые всплывают как только вы попытаетесь сделать нечто более заковыристое. Если вы когдалибо занимались разработкой собственных библиотек вы сразу поймете о чем я говорю. Автор этих строк пришел к использованию деклараций типов напрямую в JSкоде в формате JSDoc , совместно с дополнительными файлами .d.ts , как к наиболее сбалансированной практике использования TypeScript. И в этом я не одинок, я встречаю все больше опытных разработчиков, которые делают также. Применимо к JSDA , такой подход дает следующие преимущества: нет дополнительных этапов сборки: каждый модуль может быть самостоятельным ендпоинтом работает именно тот код, который вы написали, вы не разбираетесь с глюками sourceMap при дебаге нет проблем со следованием стандартам (например, идентификаторы ESM содержат расширения файлов, в TS это не обязательно) JSDoc удобнее для комментирования позволяет автоматизировать создание документации, для чего, собственно, он и был предназначен Но, если вам такое не нравится вы можете совершенно спокойно использовать синтаксис TypeScript, он вполне совместим с принципами JSDA . При работе с AIпомощниками в разработке мы сталкиваемся с одной проблемой, о которой, почемуто, пока мало говорят. AI склонен воспроизводить популярные подходы и паттерны, без глубокого анализа их эффективности и применимости в конкретном случае. У AI пока очень плохо с тем самым упрощением, о котором я говорил ранее. React стал слишком жирным и тормозным? Не важно, AI предложит использовать именно его, просто потому, что в сети больше примеров кода. В этом отношении, AI ведет себя как джуниор, не способный брать на себя ответственность за архитектурные решения, предполагающие выбор. При этом, сам AI, глобально, нуждается в оптимизации потребления токенов, и это вполне может находить отражение в технологиях, которые мы используем. Простота наших решений, включающая в себя сокращение сущностей, которыми мы оперируем должна повлиять на ситуацию позитивно. Поэтому, важно создавать новые минималистичные паттерны, такие как JSDA, которые в целом должны положительно повлиять на индустрию. До сих пор, я говорил о JSDA как о наборе соглашений и архитектурном принципе, без привязки к конкретным инструментам и не принуждающем использовать чтото конкретное. Конечно, чтобы все это ктото использовал нужна экосистема решений, позволяющих быстро развернуть проект и максимально быстро получить первые результаты. Разработкой такой экосистемы я и занимаюсь в последнее время. Хотелось бы привлечь к этому сообщество и двигаться дальше вместе. JSDAKit изоморфная библиотека инструментов для работы с JSDAстеком Symbiote.js библиотека для эффективной работы с вебкомпонентами, позволяющая очень гибко работать с HTML Из всего перечисленного, самым взрослым (production ready) проектом является Symbiote.js, остальное в активной разработке, но попробовать можно уже сейчас. В перспективе, планируется создание специализированной CDN, которая, помимо предварительной сборки и минификации модулей, будет автоматически выдавать готовые файлы в итоговом формате (HTML, CSS, SVG, Markdown, JSON и т. д.). Сайт моей собственной RDстудии, как и некоторые наши важные проекты, сделаны полностью на JSDAстеке, этот подход УЖЕ доказал свою надежность и эффективность.
| 13,509
|
https://habr.com/ru/companies/ggsel/articles/975216/
|
habr.com
|
Steam Deck стал одним из самых заметных экспериментов Valve. Первая версия показала, что портативный ПК может быть самостоятельной платформой, где удобно запускать как индиигры, так и многие крупные проекты. Обновление с OLEDэкраном закрепило успех, улучшив качество изображения и автономность, но при этом сохранило ту же архитектуру. Сегодня внимание игроков сосредоточено на возможном Steam Deck 2. Ожидания связаны не только с ростом производительности, но и с тем, как Valve сможет развить идею портативного ПК, сохранив баланс между удобством, доступностью и техническим прогрессом. Вопрос особенно интересен в условиях конкуренции с Nintendo и появлением множества альтернативных устройств на базе Windows. Первая модель доказала, что портативный ПК может быть востребованным продуктом, но ее успех во многом связан с уникальной нишей — доступ к библиотеке Steam в удобном формфакторе. Это преимущество остается актуальным, однако вопрос требует более глубокого рассмотрения. Вопервых, портативный формат неизбежно сталкивается с ограничениями. Современные AAAпроекты требуют высокой производительности и значительных ресурсов, что трудно совместить с компактным корпусом и ограниченной батареей. Даже при оптимизациях и снижении настроек графики Cyberpunk 2077 или Assassins Creed Shadows на портативных устройствах остаются компромиссным опытом. Steam Deck 2, каким бы мощным он ни был, скорее всего не сможет полностью устранить фундаментальные ограничения формфактора. Вовторых, аудитория Steam Deck уже сформировала собственные привычки. Для многих пользователей устройство стало платформой для индиигр, ретропроектов и менее требовательных тайтлов, где портативность ценится выше ультранастроек. В этом сегменте рост производительности не является критически важным фактором. Более значимыми оказываются улучшения экрана, энергоэффективности и удобства — именно поэтому версия с OLEDпанелью получила положительный отклик, несмотря на отсутствие серьезного прироста мощности. Втретьих, стратегический контекст. Valve не конкурирует напрямую с Nintendo или Sony в области эксклюзивов, а делает ставку на экосистему SteamOS и доступ к библиотеке ПКигр. Это означает, что компания может позволить себе более осторожный подход: выпускать новое устройство только тогда, когда технологический скачок действительно оправдает затраты. Такой подход снижает риск разочарования аудитории и позволяет Valve сохранить имидж компании. В целом, Valve должна оценивать не только возможности новых чипов AMD или OLEDпанелей, но и то, насколько рынок готов принять новое устройство, которое все равно останется компромиссным для AAAигр. С точки зрения архитектуры, ключевым элементом станет новый чипсет. Первая модель использовала кастомный APU от AMD на базе Zen 2 и RDNA 2, что обеспечило баланс между производительностью и энергопотреблением. Однако сегодня это уже устаревшее решение. Логичным шагом станет переход на архитектуры Zen 5 или 6, где акцент сделан на энергоэффективные ядра и поддержку современных инструкций. Такой переход позволит повысить производительность в многопоточных задачах и снизить тепловыделение, что критично для портативного формата. Графическая часть также нуждается в обновлении. RDNA 2 в первой модели обеспечивала базовый уровень совместимости с современными играми, но для стабильного запуска проектов 2025–26 годов потребуется RDNA 4 или ее производные. Это даст прирост в рендеринге, улучшенную работу с трассировкой лучей и более эффективное использование памяти. Важно, что Valve совместно с AMD активно оптимизирует драйверы под SteamOS, и именно эта связка может стать конкурентным преимуществом: не просто «новый чип», а комплексная интеграция железа и системы. Подсистема памяти — еще один узел, где возможен заметный скачок. Steam Deck первого поколения использует LPDDR5, но к моменту выхода второй модели стандарт LPDDR5X или даже LPDDR6 может стать доступнее. Более высокая пропускная способность памяти напрямую влияет на производительность графики и стабильность работы в тяжелых играх. Кроме того, рост объема оперативной памяти до 16 или даже 32 гигабайт позволит устройству комфортнее справляться с современными AAAпроектами и многозадачностью. Если вкратце: от Steam Deck 2 требуется переход на новые энергоэффективные ядра AMD, использование графики RDNA 4, а также внедрение более быстрой и емкой памяти. Только эти три направления вместе способны оправдать выпуск нового поколения, обеспечив реальный технологический скачок, который сделает портативный ПК лучше подготовленным к будущим релизам игр. Если архитектура Steam Deck 2 будет строиться вокруг нового SoC и более быстрой памяти, то аппаратные изменения должны закрепить этот фундамент в реальном пользовательском опыте. Главный вызов для Valve — сохранить баланс между ростом мощности и удобством, чтобы устройство воспринималось не как «миниПК с компромиссами», а как полноценная портативная платформа. Первое направление — система охлаждения. Steam Deck первого поколения показал, что компактный корпус требует очень точной настройки: шум вентилятора и нагрев корпуса напрямую влияют на восприятие устройства. Для второго поколения ожидается более эффективный тепловой дизайн, возможно с использованием новых материалов для отвода тепла и оптимизированных профилей работы кулера. Это позволит удерживать стабильные частоты процессора и графики без заметного роста шума. Второе направление — аккумулятор и энергопрофили. Даже при переходе на энергоэффективные ядра AMD рост производительности неизбежно увеличит нагрузку. Valve придется либо увеличить емкость батареи, либо внедрить более гибкие режимы энергопотребления, где пользователь сможет выбирать баланс между производительностью и временем работы. Многие эксперты именно автономность называют ключевым фактором, который определит успех Steam Deck 2. Третье направление — эргономика и контроллеры. Многие владельцы оригинала хотели бы более надежных стики с защитой от дрейфа, улучшенную тактильную отдачу и переработанную форму корпуса для снижения нагрузки на руки при длительных игровых сессиях. Это не косметические изменения, а важная часть восприятия устройства как комфортного инструмента для ежедневного использования. Четвертое направление — интерфейсы и подключение. Steam Deck OLED уже получил WiFi 6E и Bluetooth 5.3, но для Steam Deck 2 логично ожидать поддержку более быстрых портов USB4 или Thunderboltсовместимых решений. Это расширит возможности докстанций и подключения внешних устройств. Резюмируя: от Steam Deck 2 многие ждут более тихое и эффективное охлаждение, увеличеную автономность, более удобные контроллеры и расширенные возможности подключения. Valve не спешит с заявлениями, оставляя пространство для слухов и аналитических прогнозов. В англоязычных источниках чаще всего звучит дата 2026 года как наиболее вероятный срок релиза. Valve традиционно ждет технологического скачка, а не выпускает устройства ради маркетингового цикла, поэтому ожидания связаны именно с появлением новых архитектур AMD и более быстрой памяти. На фоне этой неопределенности конкуренты активно занимают рынок. Nintendo Switch 2, вышедшая в 2025 году, закрепила позиции в массовом сегменте благодаря эксклюзивам и обновленной архитектуре. Параллельно Windowsпортативы вроде Lenovo Legion Go 2 и ASUS ROG Ally X предлагают альтернативы с более мощными чипами и гибкостью операционной системы. Эти устройства показывают, что сегмент развивается стремительно, и Valve рискует потерять часть аудитории, если затянет с новым релизом. Цена будущего устройства пока не обсуждается официально, но аналитики предполагают сохранение доступности. Именно массовый рынок стал ключом к успеху первой модели, и отказ от этой стратегии может подорвать позиции Valve. Даже если себестоимость вырастет изза новых компонентов, компания, скорее всего, постарается удержать цену в пределах, которые позволят конкурировать со Switch 2 и Windowsпортативами. Несмотря на высокий интерес к Steam Deck 2, нельзя исключать сценарий, при котором Valve вовсе откажется от его выпуска. Главным фактором риска остается глобальный рынок полупроводников. Дефицит памяти и рост ее стоимости делают производство нового устройства значительно дороже, а нестабильность поставок создает угрозу срыва сроков. Для компании, которая традиционно избегает поспешных решений, такие условия могут показаться слишком рискованными. Valve может посчитать, что выпуск Steam Deck 2 в подобных обстоятельствах не оправдает затрат. Вместо этого компания, например, сосредоточится на развитии SteamOS как самостоятельной платформы. То есть Valve будет обеспечивать совместимость и удобство работы с библиотекой Steam, не беря на себя расходы по созданию нового железа. Также возможный сценарий — оставить первую модель и ее OLEDвариант как «финальную» версию линейки. Это позволит сохранить экосистему и аудиторию, но без необходимости инвестировать в новое поколение. Steam Deck 2 остается устройством ожиданий и споров. На фоне конкуренции со Switch 2 и Windowsпортативами компания Valve стоит перед выбором: либо предложить реальный технологический скачок, либо сосредоточиться на развитии SteamOS и поддержке сторонних производителей. Важно помнить, что первая модель уже изменила рынок. Steam Deck стал символом того, что портативный ПК может быть полноценной платформой, а не компроиссом. Даже если второе поколение задержится или вовсе не появится, культурное значение первой версии и экосистемы SteamOS останется. Сообщество продолжает развивать ее самостоятельно, а интерес к формату не угасает. В любом случае Steam Deck уже занял свое место в истории гейминга, и его влияние будет ощущаться независимо от того, появится ли полноценная вторая модель. Читайте также: « Лучшие игры для Steam Deck, которые быстро работают, хорошо выглядят и не разрядят батарею за полчаса »
| 9,805
|
End of preview. Expand
in Data Studio
No dataset card yet
- Downloads last month
- 16