url
stringlengths
36
70
domain
stringclasses
1 value
text
stringlengths
757
174k
length
int64
757
174k
https://habr.com/ru/companies/timeweb/articles/963684/
habr.com
Кино и видеоигры давно находятся в постоянном культурном обмене — фильмы получают игровые адаптации, а игры вдохновляют киноделов. Порой результат получается катастрофическим, к примеру, киноверсия Super Mario Bros. (1993) или игра Fight Club , которые стали синонимами провала. Но иногда, как в случае с фильмом « Смертельная битва » (1995) или игрой The Chronicles of Riddick: Escape from Butcher Bay , результат оказывается не просто достойным, а культовым, по новому раскрывая первоисточник и добавляя ему глубину. Однако, если фильмы и игры по их мотивам хоть както обсуждаются, то адаптации сериалов в виде игр остаются не замеченными. Между тем, с начала 2000х появилось немало игр, созданных по всем канонам своих сериальных первоисточников. Создатели не пытались перепридумать мир, используя франшизу как приманку. Эти проекты создавались людьми, которые знали и любили материал, пусть и работали в рамках ограниченного бюджета и устаревающих технологий. Среди множества неудачных или забытых лицензионных игр можно найти настоящие жемчужины, в которых чувствуется душа, фанатская преданность и желание передать вайб оригинала. Именно о таких, не самых популярных, но удивительно атмосферных адаптациях сериалов мы и поговорим. Futurama: The Game (2003) — это приключенческий платформер с элементами экшена, основанный на одноимённом мультсериале Мэтта Грейнинга. Игра была разработана шведской студией Unique Development Studios (UDS) и издана Vivendi Universal Games для PlayStation 2 и Xbox. Игра не выходила на ПК, а тираж был ограничен изза закрытия студии вскоре после релиза, поэтому стала редким коллекционным объектом и, своего рода, «потерянным эпизодом сериала». Разработка велась при участии основной команды сериала. Сенарий написал Дж. Стюарт Бёрнс (автор нескольких ключевых эпизодов Futurama). Озвучивали те же актёры дубляжа — Билли Уэст (Фрай, профессор Фарнсворт, Зойдберг), Кэти Саган (Лила), Джон Ди Маджио (Бендер) и др. Музыка и визуальный стиль полностью соответствуют мультсериалу. По сути, игра задумывалась как интерактивный эпизод сериала. Создатели рассматривали её как каноничную часть истории, поскольку сценарий был написан и утверждён командой Fox Television. История начинается в типичном духе Футурамы: профессор Фарнсворт случайно продаёт компанию Planet Express корпорации MomCorp , в следствии чего Мама становится властительницей Вселенной. И теперь команда (Фрай, Лила, Бендер и др.) вынуждена путешествовать по множеству миров и эпох, чтобы остановить Мамочку. Сюжет подаётся как 22минутный эпизод сериала с фирменными вступительными титрами, узнаваемым саундтреком Кристофера Тинга и катсценами, наполненными шутками, подколками и метаиронией (Фрай нередко ломает четвёртую стену). Фрай — стреляет из различных фантастических пушек (лазеры, плазмомёты, взрывающиеся рыбы); Лила — дерётся врукопашную, использует приёмы кунгфу и каратэ; Бендер —глотает предметы и отрывает себе голову, превращаясь в шар для катания; Доктор Зойдберг — появляется в основном как комедийный персонаж в некоторых уровнях. Геймплей строится на чередовании боёв, прыжков, сборе предметов и коротких миниигр. Таких как полёты на космолёте, перемещение по заводам MomCorp, перестрелки с роботами и головоломки. Камера фиксированная, но динамично меняет ракурсы в духе мультфильма, а дизайн уровней полностью отражает стилистику Futurama, будь то НьюНьюЙорк, Марс, пиратская планета или космические корабли. Самое ценное в игре — точное попадание в вайб сериала: искромётные реплики (часто даже лучше прописанные, чем в некоторых поздних сериях), визуальные гэги и пасхалки, пародии на игровые клише (например, когда персонажи жалуются на устаревшую боёвку прямо во время боя). Фактически, все катсцены игры (длительностью около 25 минут) позже были смонтированы в единый «потерянный эпизод» Futurama, включённый в DVDсборники. Этот эпизод рассматривается фанатами как «официальный» 73й эпизод 4 сезона ( последнего сезона на канале Fox ). графика cartoonshader (упрощённый celshading ) довольно близка к оригинальной мультипликации; лицевые анимации и движения персонажей сделаны с большим вниманием к стилю шоу; катсцены срежиссированны в духе сериала: крупные планы, панорамы, быстрая смена кадров. Недостатком можно было бы назвать неудобное управление и повторяющийся дизайн уровней, изза чего критики (IGN, Eurogamer) поставили игре 6–7 баллов из 10, хотя фанаты восприняли её значительно теплее. После закрытия студии UDS и прекращения лицензии Fox, игру больше не переиздавали, поэтому диск стал раритетом, стоящим на вторичном рынке довольно дорого, особенно Xboxверсия. Несмотря на средние оценки, Futurama: The Game сегодня считается одной из самых удачных адаптаций мультсериала в истории и каноничной частью вселенной изза сценария и актерского состава. The XFiles: Resist or Serve (2004) — это приключенческий хоррор от Black Ops Entertainment , изданный Vivendi Universal для PlayStation 2 на основе культового сериала «Секретные материалы» и задумывалась как отдельный сезон шоу. Игра написана в сотрудничестве со сценаристами сериала и имеет самостоятельный сюжет из трёх эпизодов. В итоге игра получила смешанные отзывы, но поклонники сериала высоко её оценили за атмосферу и точное попадание в дух оригинала. У создателей была задача сделать не просто игру, а продолжить сериал в интерактивном формате. Разработчики создали три сюжетные арки, связанные общей мистической линией. История разворачивается в середине 7го сезона шоу, примерно между эпизодами « Знамения и чудеса » и « Sein und Zeit ». Главные герои — агенты Фокс Малдер и Дана Скалли распутывают очередную цепочку загадочных смертей в заснеженном городке Колдспринг (штат Колорадо). Расследование приводит их к древнему мистическому культу, связанному с одержимостью, воскрешением и инопланетными экспериментами. Игра состоит из эпизодов, стилизованных под структуру телесериала: «The House on the Hill» — Малдер и Скалли приезжают в Колдспринг, чтобы расследовать убийства, связанные с воскрешением мёртвых. «Resurrection» — сюжет приводит к оккультным ритуалам, демонам и зомби. «The Old Ones» — кульминация, отсылающая к типичной мифологии сериала сочетает конспирологию, НЛО и древние силы. Диалоги и структура эпизодов выдержаны в каноне, так как написаны Фрэнком Спотницем , одним из сценаристов шоу. А Дэвид Духовны и Джиллиан Андерсон лично озвучили своих персонажей, что придало игре ещё больше достоверности. По структуре игра напоминает Resident Evil эпохи PS1 и PS2: Пользователь может выбрать, за кого играть — Малдера или Скалли. У каждого персонажа свой путь и часть сюжета: Малдер чаще сражается с врагами и исследует мистические аспекты; Скалли — проводит анализы, вскрытия, делает медицинские заключения, собирает улики. Таким образом, возможно два варианта прохождения, раскрывающих разные диалоги и детали сюжета. тусклое освещение, подземные тоннели, частое наличие дождя или снега; объёмные звуки шагов, щёлканье фонарика, электрические шумы; фирменная музыкальная тема The XFiles от Марка Сноу. Фактически, атмосфера напоминает гибрид Resident Evil 2 и Silent Hill, но с духом расследования и мистицизма. В дизайне уровней преимущественно атмосферные полупустые локации в духе survival horror. Есть полноценные видеовставки в стилистике сериала (титры, субтитры, эффекты). Критики в 2004 году встретили игру неоднозначно: похвалили атмосферу, актёрскую озвучку и сценарий, но раскритиковали устаревший геймплей и управление. Средняя оценка — 65 из 100 баллов, но среди фанатов сериала The XFiles игра считается недооценённой адаптацией, сохранившей ДНК сериала . Особенно выделяли точное попадание в характеры Малдера и Скалли, баланс между хоррором и научнофантастической интригой, а также ощущение, что это «игровой эпизод сериала». Resist or Serve — один из редких примеров, когда создатели не пытались «осовременить» франшизу, а полностью оправдали ожидания фанатов. Это не спинофф и не сборник миссий, а полноценная история, вписанная в канон сериала. Её могли бы сделать дешёвым дополнением, но разработчики приложили немало усилий, чтобы она стала запоминающейся: например, отдельные кампании Малдера и Скалли. Из сюжета игры получилась бы хорошая двухтрёхсерийная арка в седьмом сезоне, которая, в определённых отношениях, была бы интереснее некоторых серий «Мифического архетипа» из седьмого сезона. Для любителей The XFiles это фактически «потерянные три эпизода», с актёрами, сценарием и духом оригинала, пусть и на устаревшем движке. Buffy the Vampire Slayer (2002) — это видеоигра по одноимённому сериалу Джосса Уидона, разработанная студией The Collective, Inc. и изданная Electronic Arts эксклюзивно для Xbox. Несмотря на то, что она вышла только на одной платформе, игра получила культовый статус среди поклонников сериала благодаря вниманию к деталям, удачной боёвке и воссозданию атмосферы «Баффи». Сюжет игры разворачивается между 3 и 4 сезонами оригинального сериала. Баффи Саммерс (в сериалу играла Сара Мишель Геллар , а в игре её дублировала Жизель Лорен ) снова защищает Саннидейл от нашествия нежити. Главный антагонист — древний вампир Какаистос (гусары, молчать!), которого воскрешают демонические силы. Он объединяется с другими злодеями, среди которых знакомые нам по сериалу — Сидни, Фейт и прочие. История написана в духе сериала: много школьной атмосферы, сарказма и мрачного мистицизма. Разработчики консультировались с командой шоу, чтобы сохранить дух оригинала, поэтому игра выглядит как «потерянный эпизод», а не просто адаптация. В игре очень хорошо продумана система ближнего боя и акробатики. Игровой персонаж Баффи может: драться руками, ногами, использовать дубинки, колья, арбалеты и священные артефакты; использовать священную воду, кресты и факелы против вампиров; применять добивающие приёмы: вонзать кол в сердце, сбрасывать врагов в огонь, протыкать их подручными средствами. Каждая локация (школа Саннидейла, кладбище, канализация, особняк Какаистоса и др.) наполнена ловушками, секретами и небольшими катсценами с персонажами. Баффи решает головоломки и исследует окружение, что придаёт игре структуру классического экшнприключения, близкую к Tomb Raider и Resident Evil. Виллоу, Зандер, Спайк, Джайлз, Фейт — все с голосами актёров из сериала (кроме Баффи); диалоги написаны в фирменном стиле Уидона — с юмором и самоиронией, особенно в сценах в библиотеке школы. Саундтрек стилизован под сериал: гитарные рифы, готический рок и ambient, создающий атмосферу ироничного подросткового хоррора. Для 2002 года игра выделялась плавной боевой системой и неплохой графикой на движке Slayer Engine (впоследствии использованном в игре Indiana Jones and the Emperors Tomb). Разработчики добились выразительной анимации Баффи — её движения в бою выглядели динамично и естественно, что редкость для тех лет. Критики отмечали атмосферу, боёвку, озвучку и локации. Минусами стали повторяющиеся враги, неровная камера и некоторые баги. Средняя оценка — 75 из 100 баллов (по данным GameRankings), что весьма высоко для лицензированных игр по сериалам того времени. Игра стала успешной и породила продолжение — Buffy the Vampire Slayer: Chaos Bleeds (2003), уже на PS2, GameCube и Xbox. Первую часть нередко называют одной из лучших адаптаций сериалов в игре, потому что: она не просто «использует бренд», а действительно продолжает его нарратив; чувствуется уважение к персонажам и фанатам мира Саннидейла; разработчики не побоялись добавить собственные сюжетные элементы, при этом сохранив канон. Game of Thrones: A Telltale Games Series (2014) — это повествовательная приключенческая игра, которая стала одной из самых весомых и сложных адаптаций сериала «Игра престолов» от HBO. В отличие от типичных экшенов или RPG, Telltale сделала интерактивную драму, в которой ключевое внимание уделено политическим интригам, морали и последствиям выбора — всему тому, что было сутью романов Джорджа Мартина и сериала Дэвида Бениоффа. Игра раскрывает параллельную историю сериала, происходящую примерно во время 3–4 сезонов. Главные герои —Форрестеры, вассалы Старков, живущие в землях Северного Тэллхарта. Семья оказывается втянута в политические интриги между домами Болтонов, Ланнистеров и Тиреллов, потому что их владения, Волчий лес, – источник ценной древисины. Telltale не пыталась пересказать события сериала, а вписала новых героев в уже существующую вселенную, так, чтобы игрок пересекался со знакомыми персонажами — Тирионом, Серсеей, Рамси Болтоном, Марджери Тирелл. Их образы основаны на актёрах сериала, включая Питера Динклейджа и Лену Хиди. История разделена на 6 эпизодов, где игрок управляет несколькими персонажами, чьи действия переплетаются: Гаред Таттл — бывший оруженосец, отправленный на Стену в Ночной Дозор; Мира Форрестер — служанка при дворе в Королевской Гавани, пытающаяся при помощи политических интриг спасти семью; Родрик Форрестер — старший сын, вернувшийся с Войны бастардов, желающий восстановить честь дома; Ашер Форрестер — изгнанный сын, живущий на Востоке в Эссосе. Игрок последовательно переключается между героями, и его решения влияют на репутацию дома, судьбы героев и отношение союзников. Каждый эпизод заканчивается моральной дилеммой, где часто приходится выбирать между двумя плохими вариантами. Главное — не победа, а последствия решений. Даже казалось бы правильное решение может привести к трагедии — это соответствует духу книг и сериала. Telltale точно передала настроение «Игры престолов»: постоянное ощущение угрозы, цинизм, политические интриги и страх перед предательством. Визуальный стиль —графика с эффектом масляной живописи, создающая ощущение старинных иллюстраций. Музыка Рамина Джавади и голоса актёров сериала помогают погрузиться в атмосферу оригинала. диалоги с ограничением по времени (не ответил — персонаж счёл это молчанием или слабостью); Quick Time Events в боевых сценах (редко, но динамично); последствия: в конце каждого эпизода демонстрируется статистика, как поступили другие игроки по миру. Игра получила в целом положительные отзывы (Metacritic: 75–80 из 100 баллов). Высоко оценили сценарий, актёрскую игру, атмосферу политического напряжения, эмоциональные диалоги и ощущение реальности мира . Критиковали за технические проблемы (фризы, устаревший движок), а так же впечатление, что некоторые выборы мало влияют на глобальный исход. Тем не менее, многие фанаты считают Game of Thrones: A Telltale Series одной из самых лучших адаптаций, потому что она не пытается быть экшеном, а сосредоточена на том, что делает «Песнь льда и пламени» уникальной — сложности человеческих решений. Джордж Мартин и HBO лично следили за созданием сценария, чтобы не было расхождений с каноном сериала. Сюжет игры аккуратно пересекается с « Пиром стервятников »: упоминаются события, которых нет в сериале, но есть в книге. Некоторые фанаты считают, что игра лучше передаёт политику Вестероса, чем последние сезоны телесериала. Игра даёт возможность прожить моральные дилеммы персонажей Мартина и показывает, что даже малые дома могут стать причиной трагедии. Финал оставляет пространство для интерпретаций и обсуждений (Telltale планировала второй сезон, но закрылась до его выпуска). The Sopranos: Road to Respect (2006) — игра от 7 Studios и THQ , которая попыталась передать атмосферу культового сериала «Клан Сопрано» (1999–2007) через формат криминальной драмы и боевика от третьего лица. Хотя критики приняли её прохладно, фанаты сериала часто отмечают желание создателей сделать продолжение телемира, а не просто использовать бренд. Особенно благодаря участию оригинальных актёров и сценаристов. События игры происходят между 5м и 6м сезонами сериала. По сюжету Кристофер Молтисанти, знакомый нам по сериалу, поручает Джо ЛаМанна (главному герою игры) работу в семейном бизнесе. Джо пытается заработать уважение и доказать лояльность семье, но попадает в круг мафиозных интриг, насилия и моральных компромиссов. Сценарий написал Дэвид Чейз , создатель The Sopranos, совместно с другими сценаристами сериала. Практически все главные актёры озвучили своих персонажей: Кроме того, в игре есть цифровые копии актёров, созданные по технологиям 2005 года, что тогда выглядело необычно для игр этого жанра. Игровой процесс сочетает рукопашные бои, короткие перестрелки и катсцены. Большую часть времени занимает боевка: кулаками, подручными предметами (бутылками, пепельницами, бейсбольными битами), а иногда и при помощи огнестрельного оружия. В боях используется механика «Finish him!» — добивание в духе криминального кино. Игрок вытрясает долги, выполняет поручения Кристофера и Тони, катается по НьюДжерси и зависает в клубе «Bada Bing!». Сцены в клубе Bada Bing! сделаны по фото декораций со съёмок. Но в игре нет открытого мира — структура линейная, с сюжетными миссиями и редкими ответвлениями. В игре видно уважение к сериалу. Она полностью выдержана в кинематографическом стиле HBO: длинные диалоги, грубость, сарказм. Звучит оригинальная титульная песня « Woke Up This Morning ». Музыка — смесь оригинального саундтрека сериала и инструментальных треков. Пожалуй, самая сильная сторона — озвучка. Актёры читают реплики с характерными интонациями, часто импровизируя. Сцены в раздевалке клуба, кухонные разговоры, семейные обеды передают повседневной быт мафиози. Иногда появляются внутренние монологи героя в стиле к Тони Сопрано. Пускай сюжет не дотягивает до глубины сериала, но видно, что разработчики искренне пытались воссоздать атмосферу этого мира. Для конца 2006 года графика выглядела средне, но модели персонажей были вполне узнаваемы, особенно Тони и Кристофер. Тони Сопрано в игре значительно чаще улыбается и шутит — это было сделано по просьбе Джеймса Гандольфини, чтобы отличить персонажа игры от образа в последних мрачных сезонах сериала. Критики хвалили атмосферу и озвучку, но ругали устаревший геймплей, однообразные драки, короткую продолжительность и отсутствие свободы действий. Оценки прессы: 4–6 баллов из 10. Журнал Game Informer писал: « Это скорее эпизод сериала, чем игра. Но это хороший эпизод. » Хотя The Sopranos: Road to Respect не стала хитом, она вошла в число редких попыток экранизации сложных сериалов, где упор делался не на экшен, а на характеры героев. Сегодня её вспоминают как неуклюжую, но искреннюю игру, наполненную почтением к первоисточнику, любовью к персонажам и ощущением, что ты — часть семьи, пусть и той, где уважение покупается кровью. Большинство игр по сериалам и фильмам со временем растворилось в архивах или стало мемами. Но клише, что «адаптации всегда плохие» часто скрывает понастоящему интересные работы. Buffy the Vampire Slayer, The Sopranos: Road to Respect, Futurama: The Game — все они не просто дополнения, а самостоятельные истории, сделанные с пониманием атмосферы и уважением к оригиналу. Да, эти игры стремились повторить успех блокбастеров и хотели заработать под брендом известной франшизы. Но тем не менее, это был подарок фанатам, как продолжение разговора между авторами и зрителями. Сегодня, когда индустрия снова переживает волну ремейков и ностальгии, стоит вспомнить о таких проектах. Они напоминают, что адаптация не обязана быть масштабной или дорогой, чтобы быть достойной. Главное — понимать, зачем она существует. И если в основе лежит искреннее желание рассказать ещё одну историю в любимой вселенной, пусть даже сквозь ограничения старых консолей и пиксельных лиц — эта история заслуживает того, чтобы её слушали. Новости, обзоры продуктов и конкурсы от команды Timeweb.Cloud — в нашем Telegramканале Перед оплатой в разделе «Бонусы и промокоды» в панели управления активируйте промокод и получите кэшбэк на баланс.
19,539
https://habr.com/ru/companies/yadro/articles/970390/
habr.com
Привет, Хабр! Меня зовут Илья Знаменский, я ведущий инженер в группе оптимизации алгоритмов искусственного интеллекта в AIдивизионе YADRO . Популярность RISCV растет стремительными темпами, и на рынке появляется все больше новых отладочных плат. Моей команде поставили задачу: узнать, как эти платы будут справляться с простыми AIнагрузками (задачи запуска LLMondevice не стояло). В процессе работы мы внесли вклад в развитие собственного тензорного компилятора и создали библиотеку математических ядер, которая позволила существенно увеличить производительность инференса моделей на RISCV. С какими трудностями мы столкнулись и что в итоге из всего этого получилось — читайте в статье. Архитектура RISCV уверенно развивается: формируются новые рабочие группы, активно работают комитеты, появляются стартапы . Ее популярность во многом обусловлена открытостью и масштабируемостью. Так она проектировалась изначально: есть компактный базовый набор инструкций и широкий спектр модульных расширений, что позволяет масштабироваться от простых встроенных микроконтроллеров до высокопроизводительных ядер и специализированных ускорителей. Любой разработчик или компания могут использовать и расширять базовую ISA RISCV без лицензий и бесплатно, а это снижает порог входа и стимулирует инновации. Консалтинговое агентство Omdia прогнозирует , что объемы поставок процессоров на базе RISCV будут в среднем расти на 50% ежегодно до 2030 года и к концу этого периода достигнут 17 млрд штук в год. Еще в 2023 году рынок СнК на архитектуре RISCV превысил отметку в 6 млрд долларов — это в четыре раза больше уровня 2022 года. Архитектура внедряется технологическими гигантами, такими как Google, NVIDIA, Bosch, Infineon, Nordic, а также сообществом разработчиков Qualcomm. Они видят в RISCV потенциал, поэтому немало инвестируют в ее развитие и распространение. Как архитектура успешно нашла свое применение в мобильных устройствах— читайте в нашей статье . Научное сообщество также активно включилось в развитие RISCV: создаются исследовательские центры и лаборатории, многие вузы сотрудничают с представителями индустрии. Новейшие разработки быстро находят отражение в IPблоках и отладочных платах. AIсегмент не остается в стороне: ожидается уверенный рост до 550 миллионов поставок к 2031 году. И уже сейчас процессоры с RISCV находят применение в различных устройствах, связанных с работой систем искусственного интеллекта. Так, например, SiFive удалось успешно запустить LLM на RISCV за счет компиляторного подхода. Компания доказывает , что RISCV с векторными расширениями — это серьезная альтернатива в AIнагрузках таким традиционным архитектурам как x86 и ARM. Перед тем как приступить к тестированию нагрузок на отладочных платах, мы использовали QEMU — удобный аппаратный эмулятор, который поддерживает широкий набор процессорных архитектур, а также может полностью управляться через командную строку. Несколько лет назад существовали определенные трудности с отладкой на платах с RISCV: их было мало, многие из них были достаточно «сырыми», поддерживали они лишь набор самых стандартных расширений RISCV (IMAFDC). На тот момент ни о какой поддержке векторных расширений речи не шло. QEMU же «из коробки» предоставлял полностью функциональный RISCV процессор, пусть и виртуальный, но с поддержкой RVV и широкими возможностями отладки через GDB. Интеграция QEMU в CICD позволила нам начать предварительные эксперименты с оптимизациями под RVV до того момента, как мы заказали и получили платы с поддержкой векторного расширения. Функциональная отладка на QEMU работает без нареканий, однако нет возможности оценить, какой будет производительность на самом деле. Различные симуляторы (например, gem5) тоже не решают проблему. Они медленные: реальная тактовая частота отладочной платы в любом случае будет выше, чем у симулятора. К тому же, еще и неточные: симулятор может неплохо справляться с простыми сценариями, но при оценке производительности сложного многопоточного кода может дать погрешность в десятки процентов. «Не попробуешь на реальной плате — не узнаешь», — поняли мы. И, когда на рынке появились RISCV платы с поддержкой векторного расширения RVV, приступили к тестированию. Disclaimer. RISCV развивается на высоких скоростях: каждый месяц приносит нам новости о новых разработках и продуктах на открытой архитектуре. Пока мы занимались исследованием и писали статью, появились более современные платы, которые в этот обзор не вошли, — например, MilkV Jupiter и MilkV Megrez. Если статья вызовет интерес у комьюнити, мы бы выпустили продолжение с обзором этих и других новых плат. Оставляйте комментарии и stay tuned! Эта плата совсем небольшая, примерно 6,5 на 3 см. Она основана на процессорном ядре Xuantie — THead C906. Единственное ядро имеет небольшую тактовую частоту в 1 ГГц, обусловленную проектными нормами 22 нм. Поэтому чудес в плане производительности от Mango Pi ожидать не стоит. Но зато она отлично подойдет в качестве недорогого базового инструмента для желающих опробовать RISCV вживую. Mango Pi работает под управлением операционной системы Armbian. Есть базовый набор интерфейсов, чтобы использовать Mango Pi в качестве одноплатного компьютера. Но это скорее удел энтузиастов, так как у платы не слишком высокая производительность. Нас же она интересовала наличием векторного расширения промежуточной версии RVV 0.7.1. RVV реализован в C906 через кастомное расширение XTheadVector. Векторные регистры в C906 имеют ширину 128 бит, что при объединении регистров в группы (LMUL) дает возможность работать с большим числом операндов в рамках одной векторной инструкции. Более подробное описание характеристик VPU процессора C906 можно найти на странице с результатами бенчмарков платы . Мы запустили на этой плате инференс более чем десяти популярных моделей нейросетей: классификация, сегментация и другие. Производительность кода была увеличена примерно в два раза за счет оптимизации под RVV, но чуда не случилось: одно ядро на невысоких частотах даже с векторизацией кода работало значительно медленнее, чем хотелось бы. Заявленные 4 Гфлопс пиковой производительности на реальных computebound нагрузках нам достигнуть не удалось. Мы интегрировали плату в CICD, и там она успешно работала, пока на рынок не вышла ее «старшая сестра» — Lichee Pi 4A. Sipeed, производитель Lichee Pi 4A, заявляет, что эта плата с базой из четырех ядер Xuantie THead C910 — аналог Raspberry Pi 4 с улучшенной производительностью и расширенными функциональными возможностями. Lichee Pi — модульное устройство, состоящее из расширительной платы и вычислительного модуля LM4A. Наш опыт подтверждает, что у Sipeed вышел достаточно качественный продукт: очевидных проблем с надежностью мы не заметили. Lichee Pi 4A действительно способна обогнать RPI4, если затратить определенные усилия на оптимизацию ПО. Плата оснащена 16 ГБ памяти LPDDR4x, отдельными GPU и NPU IPблоками Imagination. Модульная архитектура, GPU с пиковыми 50 Гфлопс и современный набор интерфейсов позволяют использовать Lichee как основу для разных устройств — есть, например, мининоутбук Lichee Console 4A и планшет Lichee Pad 4A. Игровой производительности от платы ожидать не стоит, но для вебсерфинга и видео в среднем качестве возможностей GPU достаточно. СнК THead TH1520 изготовлена по проектным нормам 12 нм. Четыре ядра C910 (до 1,85 ГГц) имеют L1i L1d кеши объемом 64 КБ каждый и общий кеш L2 1 МБ. Архитектура соответствует RV64GCV и, как Mango Pi, поддерживает кастомное векторное расширение XTheadVector (RVV 0.7.1). Векторный блок быстрый — задержки 3–5 тактов с пропускной способностью до двух инструкций за такт. Но есть особенности: операции «вектор скаляр» иногда заметно медленнее, чем «вектор вектор». На других архитектурах такие инструкции, напротив, дают дополнительное ускорение за счет лучшей утилизации векторных регистров. Ограничения подсистемы памяти и кешей ощутимы: на типичных задачах ИИ реальный пик производительности достигает лишь 50% от заявленного. Наши тесты также показали, что пропускная способность памяти у Lichee Pi заметно ниже, чем у х86процессоров Intel и AMD. NPU — это чип Imagination AX3386 NNA c заявленной пиковой производительностью 4 TOPs int8. Для инференса нейросетей используется фреймворк HHB на базе Apache TVM. Поддерживаются популярные форматы моделей. Но, когда мы тестировали фреймворк, он был сыроват: без доработок запускались только базовые модели, и это не позволило в полной мере оценить возможности NPU. Несмотря на ограничения, Lichee Pi 4A оказалась для нас лучшим вариантом по сочетанию стабильности, производительности и функциональности. Мы отказались от Mango Pi в CI, полностью перейдя на Lichee, и добавили несколько плат для удаленного доступа разработчикам. Если хотите развивать свои навыки в машинном обучении и создавать реальные продуктовые решения в области ИИ, приглашаем к нам в команду: Senior FullStack Developer (JavaScript Python) Мы ждали Kendryte CanMVK230 как первую доступную плату с официальной поддержкой RVV ратифицированной версии 1.0. Она построена на двух ядрах Xuantie C908 с 8стадийным inorder конвейером и интересна кастомным ускорителем для квантованных нейросетей — расширением XTheadVdot. В базовой спецификации RVV нет поддержки int8инференса с накоплением в 32битных аккумуляторах, что приводит к переполнению результата. Приходится прибегать к промежуточным 16битным регистровым буферам. Этого удается избежать в x86 за счет инструкции VPDPBUSD и в ARM за счет инструкций SDOT, UDOT, SUDOT — опционально в ARMv8.2v8.3, обязательно начиная с v8.4. Эти инструкции позволяют значительно ускорить инференс квантованных нейросетей и применяются в популярных библиотеках oneDNN и XNNPACK. Изза отсутствия аналогов в RVV THead создала расширение XTheadVdot, и C908 его поддерживает. Мы подтвердили его работоспособность, но не успели оценить эффективность. Для сравнения: применение SDOT на ARM и VPDPBUSD на x86 дает ускорение в 1,5–2 раза на int8свертках. Эта плата пришла к нам одной из последних. Она разработана компанией SpacemiT и содержит восемь процессорных ядер (SpacemiT K1 Octacore X60), соответствующих спецификации RV64GCVB. Заявлена полная поддержка профиля RVA22. CPUядра объединены в два кластера по четыре ядра в каждом. Плата поддерживает версию RVV 1.0 и имеет широкие 256битные векторные регистры, что в два раза больше, чем у Lichee Pi. Одно из ключевых преимуществ платы — поддержка кастомного матричного расширения, реализованного на одном из процессорных кластеров. По классификации оно относится к классу интегрированных: SpacemiT IME переиспользует векторные регистры, соответствующие контрольные регистры и регистры состояния, обеспечивая за счет этого практически полную бинарную совместимость с RVV. Есть поддержка большого числа форматов данных низкой разрядности: от int4 до int16, а также плавающей точки от 4разрядной до 16разрядной и в блочном формате bf16. Пиковая производительность процессорного кластера, поддерживающего IME, составляет более 2 TOPS (по 0,5 TOPS на одно CPUядро) при умножении 8разрядных целочисленных операндов с накоплением в 32разрядных аккумуляторах. В бенчмарке Pigirons есть поддержка RVV 1.0 и SpacemiT IME. Ниже на картинках представлены результаты замеров пиковой производительности SpacemiT K1 в разных конфигурациях из: двух кластеров (восьми ядер), FP16FP32FP64, инструкции vfmacc.vf, vv; одного процессорного ядра с поддержкой IME, S8U8S32, FP16FP32FP64, инструкции vmadotu, us, su, slide, vfmacc.vf, vv; Для оценки пиковой производительности операции доступа к памяти не используются, а также минимизируются накладные расходы на организацию циклов, ядро которых — многократные повторения операции «умножения с накоплением». Больше про виды и применение матричных расширений читайте в статье Валерии Пузиковой, эксперта группы разработки математических библиотек в YADRO. Мы не успели потестировать IME, но идея реализации матричного расширения на основе уже имеющегося векторного нам показалась интересной. Так можно реализовать нечто похожее на NPU без интеграции внешнего IPблока. Если у вас такой опыт был — поделитесь им в комментариях! Отдельным пунктом в графе «интересы» у нас стояла серверная история на RISCV. Плату MilkV Pioneer на базе СнК Sophon SG2042 можно считать первым решением на базе RISCV серверного класса. У нее 64 ядра C920, основным отличием которых от C910 является увеличенная до 2 ГГц тактовая частота. Организация — шестнадцать кластеров по четыре CPUядра в каждом, индивидуальный кеш L1 (64 КБ 64 КБ) и общий L2 размером 1 МБ на кластер. Также присутствует системный кеш L3 размером 64 МБ. На плате установлено 128 ГБ DDR4 RAM и 1 ТБ SSD. Мы планировали установить обе платы в корпуса, подключить периферию. Для этого приобрели и подготовили все необходимые комплектующие. Даже создали какието задачи по тестированию серверных нагрузок, чтобы ускорить дальнейший процесс, пока платы будут корпусировать и настраивать наши DevOpsинженеры. Но, к сожалению, серверная история с RISCV закончилась, так и не начавшись: на платах присутствовали следы некачественной пайки и перегрева, и попытки оживить их до уровня вывода чегото осознанного в консоль не дали успеха. Вполне возможно, что нам просто не повезло — обе платы мы вернули по гарантии. Если у вас получилось успешно запустить MilkV Pioneer, опишите свои кейсы в комментариях. Нам будет интересно почитать про ваш опыт. Разработку собственного тензорного компилятора в YADRO начал Владислав Виноградов: он подробно описал процесс в своей статье на Хабре . Тензорный компилятор — это отдельный проект или компонент в фреймворке, который занимается оптимизацией и переводом модели глубокого обучения в исполняемый формат под конкретное устройство. Этим устройством может быть CPU, GPU или специализированные AIакселераторы — NPU или TPU. Сейчас мы активно развиваем собственный компилятор, который вырос в отдельный фреймворк для работы с моделями глубокого обучения. В его состав входят такие компоненты, как Inference Engine, сам компилятор, а также рантайм и утилиты. Дополнительно идут плагины, делегаты и компиляторные фронтенды для OpenVINO и TFLite. Компилятор поддерживает фреймворки OpenVINO и TFLite, работает с операционными системами Linux и Android и является кроссплатформенным: обеспечена совместимость с х8664, ARM64 и RISCV64. Также в компилятор интегрирована экспериментальная поддержка GPU и NPU (RK3588) для реализации гетерогенного режима работы. Бэкенд оптимизирован за счет использования известных библиотек для ускорения инференса: oneDNN, XNNPACK, ACL, а также собственной проприетарной библиотеки. Изначально наша библиотека была заточена только под RISCV. В дальнейшем мы подстроились под требования бизнеса и добавили оптимизированные имплементации математических ядер для ARM64 и x86. Что касается RISCV, то в библиотеке мы оптимизировали и покрыли тестами порядка 30 наиболее частотных слоев нейросетей: Convolution, Pooling, Reorder, Split и многие другие. Помимо этого, была добавлена интеграция с musthave инференсбиблиотеками oneDNN и XNNPACK. Практически все оптимизации под RISCV были выполнены для формата данных FP32, так как он поддерживался на уровне спецификации RVV. Чего нельзя сказать про FP16: поддержка этого формата появилась значительно позже с расширением Zvfh. Так как в системе инструкций RVV нет нужных команд для эффективного int8инференса, FP32 виделся единственным адекватным, простым и дающим максимально точные результаты решением. В библиотеке мы реализовали экспериментальную поддержку int8ядер для ускорения примитивов Convolution и Fully Connected с использованием RVV. На Lichee Pi удалось получить примерно двукратный прирост производительности по сравнению с FP32. Чтобы избежать переполнения 16битных аккумуляторов, анализируются значения весов и определяется, сколько итераций умножения с накоплением можно сделать перед прибавлением промежуточного 16разрядного результата к значению 32разрядного. Схема получается сложной и уменьшает число доступных векторных регистров изза буферизации в 16битных аккумуляторах, но все же дает заметный выигрыш в производительности. В целом, основную часть тестов по оптимизации инференса и сам компиляторный подход мы прогоняли именно на плате Lichee Pi c RVV 0.7.1, так как первые платы с поддержкой RVV 1.0 — Kendryte CanMVK230 и Banana Pi BPIF3 — пришлось ждать довольно долго. Их возможности мы успели оценить только поверхностно, но в будущем протестировали бы их в полной мере. Наши библиотека и компилятор поддерживают тулчейны Xuantie и Синтакор, работают как с решениями на базе THead через Xuantieтулчейн, так и с релизной версией RVV 1.0. Код можно собирать с RVV и без него, например, для запуска на RV64GC платах. Мы не оптимизировали скорость скалярного кода, сосредоточившись на работе с RVV. Для ускорения инференса квантованных нейросетей мы добавили в библиотеку поддержку кастомного расширения XTheadVdot, но это скорее технологический эксперимент, чем универсальное решение. При оптимизациях инференса на RISCV мы старались руководствоваться законом Парето: 20% усилий дают 80% результата. Компиляторные оптимизации и векторные интринсики приносят быстрый результат при достаточной производительности. Если полученных результатов недостаточно, то, например, для наиболее интенсивных вычислительных примитивов типа Convolution или GEMM мы прибегали к «тяжелой артиллерии»: RISCV Assembler и более продвинутая ступенька — RISCV JIT Assembler на базе Xbyak. Они как раз и давали нам необходимый performance boost . Соответственно, чем больше усилий мы затрачивали, тем лучше была производительность. Обо всем по порядку. Компиляторные интринсики — простой и распространенный способ ускорить код за счет векторизации, и в RISCV также есть свой набор интринсиков. После обновления тулчейна Синтакор мы столкнулись с изменениями в синтаксисе интринсиков. Поэтому мы добавили в код специальные обертки, скрывающие детали реализации, тем самым упростив жизнь программиста. Это позволило собирать код под интринсики разных версий. Такое решение обратно совместимо со старыми версиями тулчейна Синтакор, а также поддерживает интринсики для версий RVV 0.7.1 и 1.0. В своей библиотеке мы использовали векторные интринсики для оптимизации вычислительных ядер в двух случаях: нужно получить хороший прирост производительности без глубоких доработок, нет задачи получить максимальную производительность на конкретном слое нейросети. Но для самых нагруженных операций, например Convolution и Fully Connected, интринсиков было недостаточно. И здесь нам пришлось прибегнуть именно к нему. К ассемблеру. Осваивать RISCV ассемблер мы начинали со вставок, поэтому в библиотеке есть несколько демонстрационных ядер вроде простого eltwise_add — поэлементного сложения двух тензоров. Для полноценной оптимизации свертки пришлось написать ее целиком на RISCV ассемблере с поддержкой RVV. Больше всего времени ушло на разбор нетривиальной передачи параметров в ассемблерное ядро (calling convention) для соответствия RISCV ABI, затем — на реализацию самого алгоритма свертки и ее объединения (fusing) с типичными постоперациями (ReLU, Add, Sum). Чтобы упростить разработку, мы использовали макросы. Трудозатраты окупились: ассемблерная версия дала прирост производительности на десятки процентов по сравнению с версиями, реализованными на интринсиках. Но стали видны очевидные проблемы: низкая гибкость, сложная отладка и ограниченные возможности по дальнейшему расширению. Мы решили пойти еще дальше. Мы выжали из RISCV ассемблера все, что могли, но достигли границы его возможностей: дальше требовалось гибкое решение, которое сохранило бы скорость низкоуровневого кода и позволило бы конфигурировать его под конкретные параметры примитивов. Таким решением стал JITассемблер. Технология JIT (JustInTime) — это возможность компиляции кода непосредственно во время выполнения программы, что дает полный контроль при оптимизации и конфигурируемость генерируемого кода. Существуют разные библиотеки JITгенерации для C: Xbyak, Biscuit, Asmjit, MIR. Мы изучили несколько из них и выбрали Xbyak — в первую очередь изза его тесной интеграции с библиотекой oneDNN, которую мы уже активно использовали. Xbyak — это headeronly библиотека на C. Вклад в ее портирование на RISCV во многом внес наш коллега Павел Замелин. В библиотеку была добавлена поддержка основных расширений RISCV ISA (IMAFDC) и RVV 0.7.1 и 1.0. Преимущество Xbyak перед обычным ассемблером в том, что JIT позволяет сразу компилировать код под конкретные параметры — размерность тензоров, размеры ядер свертки, характеристики железа, — благодаря чему на выходе получается вариант кода с наиболее высокой производительностью. Добавляя производительности, Xbyak также упрощает разработку: код пишем на C, поэтому он компактнее, читается и отлаживается проще. В отличие от «жестко пришитых» ассемблерных реализаций, JIT дает гибкость без потери скорости. Можно, например, обращаться к регистрам по индексам и использовать это в циклах, а в CompileTime — убирать ветвления, зависящие от константных значений. Попробуем представить оптимизацию свертки на «чистом» RISCV ассемблере. Это «проклятие размерности»: миллионы возможных комбинаций разных размеров ядра, strides, dilations, pads, активационных функций, которые желательно «склеивать» со сверткой. В итоге либо приходится писать десятки отдельных реализаций под разные комбинации, либо ограничиваться несколькими ключевыми вариантами и мириться с потерей производительности. JIT решает эти проблемы: мы генерируем код под каждый вариант свертки. А если при генерации учитывать особенности железа — кеши и ширину векторных регистров, — то скачок в производительности становится еще заметнее. Мы реализовали на Xbyak RISCV несколько самых частотных и тяжелых ядер с оптимизациями под RVV 0.7.1 и 1.0: convolutiondeconvolution, pooling, inner product. Был также написан механизм поддержки различных активационных функций в виде постопераций к примитивам. Тут логично спросить: почему не взять готовое решение — те же TFLite, OpenVINO, ONNX Runtime, — к нему «прикрутить» оптимизированный бэкенд вроде XNNPACK или oneDNN и радоваться качественному инференсу на RISCV? Развитие RISCV железа опережает развитие фреймворков глубокого обучения и сопутствующих библиотек. Сейчас ситуация уже лучше, но еще пару лет назад в том же XNNPACK почти не было полноценного векторного кода для RISCV — только хорошо оптимизированные скалярные ядра. Быстрое развитие RISCV привносит некоторый хаос по части тулчейнов и расширений ISA. Крупнейшие вендоры (THead, SiFive) не ждут, пока появятся ратицифированные и стандартизированные ISA. Вместо этого они побыстрому создают свои собственные системы инструкций и тулчейны, чтобы не проиграть на рынке и вывести на него свои чипы раньше конкурентов. На выходе мы имеем несколько версий векторных расширений (как стандартизированных, так и кастомных), калейдоскоп матричных расширений (SiFive VCIX, SpacemiT IME, а также стандартные RISCV IME AME) и целый набор тулчейнов и версий интринсиков со своими уникальными особенностями. Поэтому свой тензорный компилятор при поддержке JITассемблера выглядят достаточно мощной связкой, помогающей не запутаться во всем этом «зоопарке» и получить возможность быстрее проводить эксперименты с разными ISA на новых RISCV платах. Запуск нескольких моделей на Lichee Pi через собственный компилятор также впечатлил приростом производительности: примерно в два раза по сравнению с TFLite XNNPACK. Причем итоговая производительность платы соответствовала уровню Raspberry Pi 4, а там «под капотом» ARM64 с NEON, который оптимизирован через XNNPACK. Мы тестировали в основном легковесные модели, которые способны работать на мобильных устройствах без NPU, — часть из них используется в типичных задачах обработки изображений в YADRO. На таких задачах Lichee Pi продемонстрировала производительность примерно уровня CortexA72 и A73. Мы провели эксперименты по оптимизациям инференса на RISCV, а также внедрили поддержку этой архитектуры в собственный инференсфреймворк. Тесты показали: современные отладочные платы с векторными и матричными расширениями можно использовать для запуска легковесных AIнагрузок на RISCVядрах. Mango Pi была полезна для первых шагов, Banana Pi удивила наличием матричного расширения, а Lichee Pi стала нашим фаворитом по части стабильности и производительности. Наиболее популярные фреймворки и библиотеки с оптимизированным инференсбэкендом все еще слабо поддерживают RISCV. Есть проблемы в дизайнах: может вылезти неприятная errata или illegal instruction, а пропускная способность подсистемы памяти не выдерживает конкуренции с решениями x86 и ARM. Все это оставляет много интересных тем для будущих материалов. Если вам хочется увидеть продолжение экспериментов с новыми платами — дайте знать в комментариях!
24,747
https://habr.com/ru/articles/976424/
habr.com
В мире современного программирования эффективное использование ресурсов, включая память, является ключевым аспектом разработки приложений. Сегодня мы поговорим о том, как можно оптимизировать доступные ресурсы в процессе разработки. Язык программирования C , несмотря на то, что обеспечивает автоматическое управление памятью с помощью механизма сборки мусора (GC), требует от разработчиков специальных знаний и навыков для оптимизации работы с памятью. Итак, давайте рассмотрим различные стратегии и методы оптимизации памяти в C, которые помогают создавать эффективные и быстрые приложения. Прежде чем начать, я хотел бы отметить, что эта статья не является панацеей и может рассматриваться лишь как вспомогательное средство для ваших дальнейших исследований. Прежде чем углубляться в детали оптимизации памяти в C, важно понимать различие между управляемой и неуправляемой памятью. Это память, управление которой полностью лежит на плечах CLR (Common Language Runtime). В C все объекты создаются в управляемой куче и автоматически уничтожаются сборщиком мусора, когда они больше не нужны. Это память, управляемая разработчиком. В C вы можете работать с неуправляемой памятью, взаимодействуя с низкоуровневыми API или используя ключевые слова unsafeand и and fixed . Неуправляемая память может использоваться для оптимизации производительности в критически важных участках кода, но требует тщательного обращения во избежание утечек памяти или ошибок. В Unity практически нет неуправляемой памяти , а сборщик мусора работает несколько иначе, чем в чистом .Net, поэтому вам следует полагаться на себя и понимать, как работает управляемая память на базовом уровне, чтобы знать, при каких условиях она будет очищена, а при каких — нет. Выбор подходящей структуры данных — ключевой аспект оптимизации памяти. Вместо использования сложных объектов и коллекций , которые могут потреблять больше памяти изза дополнительных метаданных и информации управления, следует отдавать предпочтение простым структурам данных, таким как массивы , списки и структуры . В этом примере string[] массив требует меньше памяти по сравнению с исходным, Liststring поскольку не имеет дополнительной структуры данных для управления динамическим изменением размера . Однако это не означает, что всегда следует использовать массивы вместо списков. Следует понимать, что если вам часто приходится добавлять новые элементы и перестраивать массив, или выполнять сложные поиски, которые уже предусмотрены в списке, лучше выбрать второй вариант. Насколько мы знаем, классы и структуры довольно похожи друг на друга, отя и с некоторыми различиями (только это не тема данной статьи), но всё же у них есть существенные различия в способе организации в памяти нашего приложения. Понимание этого может значительно сэкономить время выполнения и оперативную память, особенно при работе с большими объёмами данных. Давайте рассмотрим несколько примеров. Итак, предположим, у нас есть класс с массивами и структура с массивами . В первом случае массивы будут храниться в оперативной памяти нашего приложения, а во втором — в кэше процессора (с учетом некоторых особенностей сборки мусора, которые мы обсудим ниже). Если мы будем хранить данные в кэше CPU , мы ускорим доступ к необходимым данным, в некоторых случаях от 10 до 100 раз (конечно, все зависит от особенностей CPU и RAM , а в наши дни процессоры стали гораздо умнее взаимодействовать с компиляторами, обеспечивая более эффективный подход к управлению памятью). Таким образом, со временем, по мере заполнения или организации нашего класса, данные перестанут располагаться вместе в памяти изза особенностей обработки кучи, поскольку наш класс является ссылочным типом и располагается в ячейках памяти более хаотично. Со временем фрагментация памяти затрудняет перемещение данных в кэш для процессора, что создает проблемы с производительностью и скоростью доступа к этим данным. Рассмотрим варианты того, когда следует использовать классы, а когда — структуры. Вы работаете с небольшими массивами. Для того чтобы результат можно было измерить, вам нужен достаточно большой массив. У вас слишком большие объемы данных. Процессор не может кэшировать достаточное количество данных, и в итоге они оказываются в оперативной памяти. В структурах есть ссылочные типы, такие как String. Они могут указывать на оперативную память так же, как и классы. Вы недостаточно использует массив. Для корректной работы нам необходима фрагментация. Вы используете сложную коллекцию, например, List. Нам необходимо фиксированное выделение памяти. Вы не обращаетесь к массиву напрямую. Если вы хотите передавать данные функциям, используйте класс. Вам попрежнему нужна функциональность классов. Не стоит писать неоптимальный код, если вам нужна как функциональность классов, так и производительность структур. Например, моделирование воды, в котором используется большой массив векторов скорости. Градостроительная игра с множеством игровых объектов, обладающих одинаковым поведением. Например, автомобили. Система частиц, работающая в режиме реального времени. Рендеринг на CPU с использованием большого массива пикселей. Увеличение производительности на 90% — это много, поэтому, если вас это заинтересовало, я настоятельно рекомендую провести собственные тесты. Также хочу привести пример тестов производительности со смешанными элементами массивов, основанных на классах и структурах (выполнено на процессоре Intel Core i511260H 2,6 Гц, итеративно на 100 миллионах операций с 5 попытками ): Да, речь идёт об огромных объёмах данных, но я хотел подчеркнуть, что компилятор не может угадать, как вы хотите использовать эти данные, в отличие от вас самих, — и только вы сами решаете, как хотите получить к ним доступ. Утечки памяти могут возникать изза небрежного обращения с объектами и ссылками на них. В C сборщик мусора автоматически освобождает память, когда объект больше не используется, но если в памяти остаются ссылки на объекты, они не будут удалены . При работе с управляемыми ресурсами, такими как файлы, сетевые подключения или базы данных, убедитесь, что они надлежащим образом освобождаются после использования. В противном случае это может привести к утечкам памяти или исчерпанию системных ресурсов. Итак, давайте рассмотрим пример кода, демонстрирующего утечку памяти в C: Уже догадались почему в этих двух примерах происходят утечки? В C существует множество способов избежать утечек памяти . Мы можем предотвратить утечки памяти при работе с неуправляемыми ресурсами с помощью оператора using , который внутренне вызывает метод Dispose() . Синтаксис оператора using выглядит следующим образом: При использовании управляемых ресурсов, таких как базы данных или сетевые соединения, также рекомендуется использовать пулы соединений для снижения накладных расходов на создание и удаление ресурсов. При работе с большими объемами данных важно избегать ненужного копирования и использовать эффективные структуры данных. Например, если вам нужно обрабатывать большие текстовые строки, используйте StringBuilder вместо обычных строк, чтобы избежать ненужного выделения памяти. Также следует избегать ненужного выделения памяти при работе с коллекциями. Например, если вы используете LINQ для фильтрации списка, вы можете преобразовать результат в массив с помощью соответствующего ToArray() метода, чтобы избежать создания лишнего списка. Профилирование кода позволяет выявлять узкие места и оптимизировать их для повышения производительности и эффективности использования памяти. Существует множество инструментов профилирования для C , таких как dotTrace , ANTS Performance Profiler и Visual Studio Profiler . В Unity есть собственный профилировщик памяти . Подробнее о нём можно прочитать здесь . Определить участки кода, которые потребляют больше всего памяти. Выявлять утечки памяти и ненужные выделения памяти. Оптимизировать алгоритмы и структуры данных для снижения потребления памяти. В зависимости от конкретных сценариев использования вашего приложения , некоторые стратегии оптимизации могут быть более или менее подходящими. Например, если ваше приложение работает в реальном времени (как игры), вы можете столкнуться с проблемами производительности изза сборки мусора, и вам может потребоваться использовать специализированные структуры данных или алгоритмы для решения этой проблемы (например, Unity DOTS и Burst Compiler ). Хотя использование unsafe памяти в C должно быть осторожным и ограниченным, существуют сценарии, когда использование unsafe кода может значительно повысить производительность. Это может быть особенно полезно при работе с большими объемами данных или при написании низкоуровневых алгоритмов, где накладные расходы на сборку мусора становятся значительными. Однако использование unsafe кода требует серьезного понимания внутренних механизмов работы с памятью и многопоточностью в .NET, а также дополнительных мер предосторожности, таких как проверка границ массивов и бережное обращение с указателями. Оптимизация памяти в C — критически важный аспект разработки эффективных и быстрых приложений. Понимание основных принципов управления памятью, выбор правильных структур данных и алгоритмов, а также использование инструментов профилирования помогут вам создать эффективное приложение, которое рационально использует системные ресурсы и обеспечивает высокую производительность. Однако не забывйте, что помимо оптимизации кода, следует также оптимизировать ресурсы приложения (например, это особенно актуально для игр, где необходимо работать со сжатием текстур, оптимизацией рендеринга, динамической загрузкой и выгрузкой ресурсов с помощью пакетов и т. д.). И, конечно же, спасибо за прочтение статьи, я с удовольствием обсужу с вами различные аспекты оптимизации и кода.
9,721
https://habr.com/ru/articles/975178/
habr.com
В типовом BIпроекте данные проходят некоторый путь от источника данных до аналитического отчёта: Источник данных ETLпроцессы DWH (витрины) OLAPcube Меры На выходе получаем множество мер — ключевых показателей бизнеса вроде: "Выручка", "Средний чек", "Конверсия"; каждая из которых это результат цепочки трансформаций данных через SQLпроцедуры, представления и DAXформулы. Когда в проекте более 200 мер, удержать все детали в голове сложно, и при вопросе пользователя: "Откуда берётся значение в мере [Долг поставщика]?", разработчик вынужден: Проследить до stored procedures и понять логику расчета; В зависимости от характера вопроса и сложности самого показателя на одну меру может потребоваться 1520 минут. Первоначальное решение было реализовано в виде MCPсервера, основная задача которого — создавать однотипные промпты для списка переданных мер, с указанием расположения составных частей проекта (.bimфайла, процедур и представлений). Ответ MCPсервера возвращается Cursorагенту и тот действует в соответствии с полученной инструкцией создает новое описание, вставляет в документацию. Плюсы: автоматизируем значительную часть "ручного труда", связанного с составлением описания мер, учитывающего особенности всего процесса трансформации данных внутри проекта. Недостатки: выявленные при эксплуатации при единовременной передаче обширного списка мер может не хватить контекстного окна модели, выбранной при запуске Cursorагента, для составления документации по всему перечню мер (агент падает); при обработке списка мер агент может либо зацикливаться, либо частично переписывать ранее созданные блоки для уже обработанных мер (приводит к перерасходу токенов); вышеперечисленные пункты требуют ручного управления процессом разбивать список мер на небольшие части (23 меры), следить за ходом выполнения; при обработке даже 23 мер за один запуск Cursorагента желателен выбор "дорогих" моделей для успешного завершения задачи. Пример вызова MCPserver techspec (в ветке main находится версия MCPсервера, вызов которого показан на скрине). Название меры: Колво Тип: Мера (Measure) Источник: OLAP.bim Папка отображения: Базовые меры Формат отображения: ,0 Мера "Колво" предназначена для подсчета общего количества товаровуслуг в заказах клиентов с учетом определенных фильтров. Данная мера является базовой и используется для расчета других производных показателей в аналитических отчетах. ionos Основная таблица: М001 Заказы Клиентов Основное поле: [Количество] Дополнительные поля для фильтрации: [ВГО булево] булево поле для исключения ВГО (внутригрупповые операции) [Отмененный] булево поле для исключения отмененных заказов CALCULATE ( SUM ( М001 Заказы Клиентов[Количество] ), NOT М001 Заказы Клиентов[ВГО булево], NOT ( М001 Заказы Клиентов[Отмененный] ) ) Основная агрегация: Суммирование значений поля [Количество] из таблицы М001 Заказы Клиентов. Фильтрация по ВГО: Исключение записей, где [ВГО булево] TRUE. Фильтрация по статусу: Исключение отмененных заказов, где [Отмененный] TRUE. Контекстная фильтрация: Мера автоматически применяет фильтры из срезов и других измерений. Формат отображения: Целое число с разделителями тысяч (,0) Общее количество товаров в заказах без дополнительных фильтров. Количество по клиентам с фильтром по конкретному клиенту. Количество по периодам с фильтром по дате заказа. Количество по товарным группам с фильтром по категории товара. Представление DWH: Данные для меры поступают из представления [uni].[vt_order]. Таблицы фактов DWH: Представление [uni].[vt_order] агрегирует данные из следующих таблиц: [dbo].[fact_order] [dbo].[fact_cancelled_order] [dbo].[fact_order_characteristics_received] Хранимые процедуры: Эти таблицы фактов загружаются и обрабатываются следующими хранимыми процедурами: [dbo].[sp_load_fact_order] [dbo].[sp_load_fact_cancelled_order] [dbo].[sp_load_fact_order_characteristics_received] Назначение: Процедура формирует основной набор данных для анализа продаж. Источники и логика: Основные данные: Берутся из документа "Заказ клиента" из системы 1С. Для каждой товарной позиции в заказе извлекается информация о количестве, цене, сумме, предоставленных скидках и ставке НДС. Обогащение данных: Информация о заказе дополняется сведениями из связанных справочников 1С: Клиент и партнер: Кто является покупателем. Менеджер: Кто ответственный за заказ. Номенклатура: Какой товар заказан. Организация: От лица какой нашей организации оформлен заказ. Склад, подразделение, сезон: Дополнительные аналитические разрезы. Финансовые показатели: Процедура также рассчитывает состояние оплаты по заказу, обращаясь к регистру "Расчеты с клиентами", и определяет наличие просроченной задолженности. Бизнесценность: Позволяет получить полную и обогащенную картину по каждому заказу для построения отчетов по продажам, маржинальности и эффективности работы менеджеров. Назначение: Процедура собирает данные по отмененным позициям в заказах клиентов. Источники и логика: Основные данные: Как и в предыдущей процедуре, источником является документ "Заказ клиента" из 1С. Ключевое отличие — отбираются только те строки товаров, у которых установлен признак "Отменено". Дата отмены: Для понимания, когда именно произошла отмена, процедура обращается к регистру "История изменений заказа клиента". Контекст заказа: Вся остальная информация (клиент, менеджер, суммы, скидки) подтягивается аналогично процедуре загрузки основных заказов, чтобы сохранить полный контекст на момент отмены. Бизнесценность: Дает возможность анализировать объем и причины отмен, оценивать упущенную выручку и выявлять тенденции, связанные с отказами от товаров. Назначение: Процедура отслеживает поступление товаров по заказам, у которых в процессе обработки менялись характеристики (например, цвет, размер). Источники и логика: Основные данные: Процедура отталкивается от данных, где зафиксированы факты поступления товаров по заказам, в которых были изменения (fact_order_characteristics_changes). Связь с заказом: Используя номер заказа, процедура обращается к исходному документу "Заказ клиента" в 1С, чтобы получить полную информацию о клиенте, менеджере, дате и других атрибутах заказа. Фильтр: Отбираются только те записи, которые отражают фактическое поступление товара (quantity_received 0), а не просто резервирование. Бизнесценность: Позволяет контролировать и анализировать исполнение "сложных" заказов, где характеристики товара были изменены. Это помогает понять, как такие изменения влияют на сроки и полноту выполнения заказа. Для устранения недостатков, выявленных во время эксплуатации, было решено использовать вызов Cursor CLI из скрипта, и управлять процессом при помощи LangGraph . Получаем агента на базе LangGraph , который: INPUT NODE — инициализирует состояние графа, принимая запрос пользователя и пути к рабочим директориям (процедуры, OLAP, документация); PROCESS MEASURES LIST — обработка полученного сообщения от пользователя (структурирование данных). Задача извлечь из текста структуру JSON с топиками (бизнесразделами) и мерами; CURSOR CLI — итерируется по извлеченному списку мер. Для каждой меры вызываем cursoragent с инструкцией использовать MCP Server techspec . Документация Cursor CLI . Репозиторий LangGraph c учебными материалами и инструкциями по установке. Плюсы: Итеративный вызов Cursor CLI , с передачей в качестве аргумента лишь одной меры, обеспечивает: возможность использовать более дешевые модели, так как снижаются требования к размеру окна контекста; логирование результатов выполнения узла; сохранение описания в отдельный документ (решается проблема с зацикливанием Cursorагента, и перерасходом токенов). Недостатки: так как циклический вызов Cursor CLI выполняется внутри одного узла, то логируется общий итог выполнения "ноды", без декомпозиции в графе обработки каждой, отдельно взятой, меры. Для наглядности обратимся к скринам, описывающим пример обработки такого промпта: На первом скрине видно, что в measure_list_node входной промпт был переложен в структуру, описанную для атрибута input_mrs класса OverallState . Каждая из перечисленных мер (Колво, Рейтинг Потенциал) была отработана циклическими вызовами Cursor CLI внутри cursor_cli_node . Однако, в Waterfall трассировки мы не видим деталей по каждому отдельному вызову Cursor CLI . Это стало поводом переработки графа в его итоговую структуру. Главное отличие новой версии — переход от линейной обработки к циклическому графу состояний (Cyclic State Graph). Ключевые изменения: введен узел process_router_node , который управляет итерациями. Он выбирает одну текущую меру для обработки и передаёт её исполнителю ( Cursor CLI ); узел Cursor CLI теперь обрабатывает ровно одну задачу за раз и возвращает управление роутеру; добавлен новый узел combine_doc_node теперь, после завершения всех итераций, агент автоматически собирает все созданные фрагменты в единый документ combined_ manual.md . Финальная версия агента находится в репозитории lcmanualcreatoragent . Рассмотрим пример работы агента, передав ему следующий промпт: Отлично! Теперь мы видим последовательные вызовы cursor_cli_node , с фиксацией в state результатов работы каждого шага. Напомним, что перед агентом стояла задача составить описание трёх мер из двух бизнесразделов ( Продажи : "Колво" и "Рейтинг Потенциал"; Транспорт : "Колво рейсов"). Общая продолжительность работы агента составила 10 мин. (625 сек.). Вызов Cursor CLI осуществлялся с хинтом model "auto" . Рассмотрим детально, что происходит внутри агента от момента получения запроса до создания финальной документации. Агент получает пользовательский запрос в произвольном формате (желательно подавать в markdown); Инициализирует граф состояний ( OverallState ) с путями к рабочим директориям; Проверяет наличие необходимых компонентов: .bimфайла, SQLпроцедур, представлений. Что происходит: Узел отправляет запрос к локальной LLM (через LM Studio) для извлечения структурированного списка мер в формате JSON. Механизм фалбэка: Если LLM недоступна или возвращает ошибку (таймаут, неправильный формат), агент автоматически переключается на regexпарсинг: Этот шаг критически важен: от качества структурирования зависит корректность всех последующих операций. Что происходит: Роутер определяет следующий шаг выполнения, отвечая на вопрос: "Остались ли необработанные меры?" Важная деталь: Роутер не обрабатывает все меры сразу, а выбирает одну текущую меру и передаёт её в исполнитель. Это обеспечивает гранулярность логирования. Что происходит: Для выбранной меры формируется промпт и вызывается Cursor CLI с инструкцией использовать MCPсервер techspec . Парсинг вывода CLI для извлечения пути к созданному файлу; Если успешно добавить в processed_mrs , сохранить путь в created_docs ; Если ошибкатаймаут (10 мин) добавить в missed_mrs ; input_mrs остаётся неизменным — сохраняется исходный список для отчётности. Что происходит: После обработки одной меры управление возвращается в Process Router Node (см. Шаг 3). Цикл продолжается до тех пор, пока все меры не будут обработаны или добавлены в missed_mrs . Что происходит: Когда все меры обработаны, агент собирает отдельные файлы в единый документ. Результат: Создаётся файл combined_manual.md со структурой:
11,174
https://habr.com/ru/articles/973778/
habr.com
Последние 2 года я выстраивал и непрерывно улучшал собственную систему планирования в Obsidian. За это время я обнаружил коечто важное, что решил разделить с сообществом. И вот что я заметил: почти все, кто пытается выстроить систему управления, начинают с одного и того же вопроса — «Какой инструмент мне взять?» Notion? Jira? Obsidian? Linear? Асана? Тут я всегда отвечаю одно: выбор инструмента — это последний вопрос, а не первый. Люди берут красивый инструмент. Красят всё красиво. Неделю всё работает идеально. Потом система рассыпается. Потому что инструмент не соответствует реальному workflow конкретного человека. Типичная история: коллега рассказал мне, как он пытался использовать Notion по гайду из YouTube. Сделал классную базу данных. А потом просто бросил — было лень её заполнять. Или вариант потяжелее: в компании, где я работал, внедрили корпоративный инструмент. Все вынуждены вводить туда данные, но никто толком не знал, зачем. Система имела нулевую ценность, но требовала постоянного обслуживания. Мне это надоело. Я решил понять: как на самом деле работает управление информацией? Ошибка первая: думать, что инструмент решит проблему Это не так. Инструмент — это всего лишь холст. Если вы не знаете, что на этом холсте рисовать, инструмент не поможет. Я видел людей, которые переходили с Notion на Jira, потом на Obsidian, потом обратно. Проблема была не в инструменте. Проблема была в том, что они не понимали, как на самом деле работает их процесс. В интернете полно гайдов: «Вот система для Obsidian», «Вот как использовать Notion для управления проектами». Люди копируют, и примерно на третий день понимают, что это им не подходит. Потому что это система для совсем других задач и совсем других людей. Ошибка третья: ждать идеального решения вместо того, чтобы начать Я видел инженеров и руководителей, которые месяц искали идеальный инструмент вместо того, чтобы просто начать документировать свою работу. Результат: они всё ещё не знают, что им нужно. Я решил не искать готовое решение, а выстроить своё. Сначала я просто писал. Как я работаю, какую информацию я ищу, где я её ищу, как я с ней работаю. Неделя документирования дала мне больше инсайтов, чем месяц чтения гайдов. Есть информация, которая редко меняется (контракты, требования, принципы) Есть информация, которая меняется каждый день (статус работ, замечания, решения) Есть информация, которую нужно видеть быстро (близкие дедлайны, блокеры, критические задачи) Есть информация, которую нужно отслеживать в истории (кто что обещал, когда и сделал ли) Система, которую я выстроил, работает не потому, что Obsidian лучше других. Работает потому, что она соответствует тому, как я на самом деле работаю. Не ищите идеальный инструмент. Возьмите то, что у вас есть (Google Sheets, Notion, даже бумагу). И начните документировать неделю своей работы. Какими проектами или предметными областями вы сейчас управляете? Потом, когда вы поймёте, что вам нужно, вы сможете выбрать правильный инструмент. Или построить правильную систему в том инструменте, который уже есть. Я планирую поделиться конкретными подходами и техниками, которые я использую в своей работе. Но сначала нужно выяснить: а какие у вас есть болевые точки? Какие проблемы вы решаете сейчас? Если вы теряете информацию, если вам сложно отследить важные дедлайны, если вы забываете о коммуникации или результатах встреч, если вы тратите слишком много времени на поиск нужных данных — пишите в комментариях. Это поможет мне сделать материалы более полезными.
3,508
https://habr.com/ru/articles/974882/
habr.com
Мы привыкли к классическому набору любого сайта: robots.txt экономит ресурсы сервера, запрещая поисковикам сканировать мусорные страницы, а sitemap.xml, наоборот, скармливает поисковикам каждую доступную страницу для полной индексации. Однако ситуация изменилась, когда сайты начали читать не только поисковые роботы, но и языковые модели. Для них существующие стандарты не подходят: sitemap избыточен и ресурсоёмок, а HTMLкод создаёт слишком много шума. Понадобился новый способ доставки актуального, очищенного контекста в сжатом виде специально для AIагентов и языковых моделей. В сентябре 2024 года Джереми Ховард (создатель fast.ai ) предложил решение в виде стандарта llms.txt . Давайте разберемся, как он работает, чем отличается от llmsfull.txt , какую пользу могут извлечь разработчики и как быстро добавить его поддержку в свой проект. Когда вы просите ChatGPT, Gemini, Perplexity или Cursor прочитать документацию библиотеки, чтобы написать код, модель сталкивается с несколькими проблемами: Технические барьеры и глубина: LLM не поисковые роботы. В чатинтерфейсах модели часто "ленятся" или технически не могут переходить по десяткам ссылок. Если вы дадите ссылку на корень документации, модель часто прочитает только эту страницу. Кроме того, многие сайты построены как SPAприложения и требуют выполнения JavaScript, с чем встроенные браузеры LLM нередко не справляются, видя лишь пустой div id"root"div Грязные данные: Современные сайты это смесь HTML, CSS, JavaScript, рекламных блоков и навигации, которые бесполезно расходуют токены. Даже у моделей с контекстом в миллион токенов есть предел "внимания". Скармливать им весь сайт целиком это дорого и снижает качество ответов. Отсутствие приоритетов: sitemap.xml содержит ссылки на всё подряд. LLM не знает, какие страницы важны, а какие второстепенны, устарели или носят юридический характер. llms.txt — это стандарт чистых данных для нейросетей. Он превращает ваш сайт или документацию в AIfriendly ресурс, гарантируя точные ответы без галлюцинаций по актуальным данным. Стандарт состоит из трех компонентов: Первая часть предложения создавать "чистые" версии страниц. Если у вас есть страница документации docsapi.html , по тому же адресу (или с суффиксом .md ) должен быть доступен файл с чистым содержимым в Markdownформате, например: Это индексный Markdownфайл в корне сайта, выполняющий роль карты. В отличие от sitemap.xml, он содержит ссылки не на все страницы подряд, а только на самые важные и актуальные материалы, специально отобранные для работы с ИИ. Файл включает краткое описание проекта, список ссылок на подготовленные .md документы и сжатые аннотации к ним. Благодаря этому модель сразу видит приоритеты, понимает структуру проекта и знает, где искать детали. llmsfull.txt — это файл полного контекста. Он склеивает все страницы из llms.txt в один текст, чтобы передать AI всю базу знаний одним файлом. Этот файл формируется автоматически специальным скриптом. (В спецификации FastHTML он также называется llmsctxfull.txt, но такую вариацию почти никто не использует). Хотя Markdown понятен нейросетям и без строгой схемы, спецификация требует соблюдения определенного порядка секций. Это нужно, чтобы классические инструменты (парсеры, CLIутилиты) могли автоматически собирать контекст. Заголовок H1: название проекта или сайта ( обязательный элемент ). Цитата (Blockquote): Краткое саммари проекта. Самая важная информация. Описание (Markdown): Произвольный текст с деталями, инструкциями или подсказками для модели. Секции ссылок (Заголовки H2, H3 и т.д.): тематические разделы с перечислением ссылок. Внутри списки вида: [Название](ссылка): Краткое описание Секция "Optional" (H2): ссылки на второстепенные материалы. Они игнорируются при сборке сжатого контекста, но попадают в полную версию. Поддерживать два набора документации (HTML и Markdown) вручную не вариант. Несмотря на молодость стандарта, для большинства популярных CMS и генераторов уже есть готовые решения. GitBook: Полностью встроенная поддержка. nbdev: Инструмент от fast.ai генерирует по умолчанию. WordPress: Плагины odysseyllms и llmsfulltxtgenerator Похожие инструменты можно найти по запросам в поисковиках и на github: [ваш_фреймворк] llms.txt или llms.txt generator . Хотя llms.txt это инициатива сообщества, а не утвержденный W3C или IETF стандарт, индустрия дефакто приняла его. Несмотря на отсутствие формальной спецификации, он уже применяется в продакшене крупнейших компаний. Интерес со стороны разработчиков подтверждает и статистика GitHub. Количество файлов llms.txt в репозиториях исчисляется тысячами. Динамика популярности плагинов для генерации тоже показательна. Вот, например, как рос интерес к некоторым плагинам в этом году: Пользу от стандарта можете извлечь и вы. Попробуйте при изучении документации новой библиотеки допишите к корню сайта llmsfull.txt . Если разработчики внедрили этот стандарт, вы мгновенно получите весь необходимый контекст в одном файле, очищенном от визуального шума. Загрузив этот файл в LLM с большим контекстным окном, например Gemini 3 вы решаете проблему устаревших знаний и галлюцинаций: модель перестает выдумывать несуществующие методы из версий двухлетней давности и начинает отвечать строго по свежей документации. Так вы получаете точные ответы на вопросы и возможность комфортного вайбкодинга с актуальным стеком без необходимости вручную копировать десятки страниц или настраивать сложные парсеры. Разработчики всё чаще ищут ответы не в Google, а в диалогах с Cursor, Claude, ChatGPT или Perplexity. Это меняет саму природу SEO: битва за трафик смещается из поисковой выдачи в окно чатбота. Внедрение llms.txt это инвестиция сразу в два направления. Вопервых, вы повышаете "AIвидимость" вашего проекта: чистые Markdownзеркала позволяют моделям давать точные ответы по вашей документации, избегая галлюцинаций. Вовторых, это стратегическая ставка: логично предположить, что при обучении будущих версий моделей крупные игроки будут отдавать приоритет именно таким структурированным, очищенным от шума источникам, предпочитая их сырому HTML. Вывод прост: если ваша документация плохо читается нейросетями, она фактически перестаёт существовать для огромной части аудитории. Добавление двух текстовых файлов в корень сайта это простое но важное улучшение, которое готовит ваш проект к будущему, где веб читают не только люди, но и агенты. llmstxt.site Каталог сайтов, которые уже внедрили стандарт. directory.llmstxt.cloud Еще один каталог сайтов внедривших стандарт
6,491
https://habr.com/ru/articles/972152/
habr.com
Всем привет! Я клинический психолог и в этом посте хочу разобрать СДВГ у взрослых: что происходит в мозге, неочевидные признаки, почему есть различия в симптомах между полами и что вообще с этим делать Буду опираться на современные исследования и собственную практику работы с людьми с Синдромом Дефицита Вон Голубь пролетел, смотри! СДВГ — это пример нейроотличия, которое классифицируется в рубрике F90.0 «Нарушение активности и внимания». Оно характеризуется чрезмерной двигательной активностью, импульсивностью и трудностями с концентрацией внимания. Часто человек — победитель по жизни и сочетает в себе несколько диагнозов. Это называется: « коморбидность .» Интересный факт: В постсоветской психиатрии до сих пор есть специалисты, которые скептически относятся к нейроотличиям или депрессиям, оставляя без вопросов только шизофрению. Префронтальная кора : может быть тоньше или функционировать менее эффективно сложно в планировании, концентрации и принятия решений Объем мозга меньше (больше наблюдается у детей), что отражается на способности тормозить импульсы и удерживать внимание Червь мозжечка тоже меньше, что замедляет скорость реакции Нейромедиаторы : дисбаланс в дофамине и норадреналине, а также серотонине. Это влияет на внимание, мотивацию и настроение Также тут упомяну, что СДВГ делят на вариант с преобладанием гиперактивности, а также на вариант с преобладанием дефицита внимания. Но чаще мы видим тип, как шампунь "2 в 1" Многие ожидают увидеть при СДВГ только очень активного и забывчивого человека, но СДВГ может проявляться и так: Прокрастинация . Привет префронтальной коре: сложно начать задачу, особенно если она скучная Гиперфокус . На том, что действительно интересно: игры, хобби, иногда — новые люди или проекты. В такие моменты человек может «выпадать» из времени. Скачущие переходы внимания . Вы искали сантехника, через три клика читаете про древнеримское право, а потом внезапно покупаете новые часы, потому что заметили время и вспомнили, что часы уже пора менять.. Задачи без дофамина страдают : быт, бюрократия, «паломничество в МФЦ» за документами как особый вид наказания. Эмоциональные качели : сложно сдерживать эмоциональный импульс. Можно мгновенно загореться идеей и так же быстро перегореть. Экстравертная интроверсия : человек может много общаться, потом быстро устать и, ни с кем не попрощавшись, уйти с мероприятия. Каждый второй на сессии говорит:«ой, кажется у меня СДВГ», а также все соцсети рекомендуют дюжину видео с гиперфокусом. Давайте разбираться, в чем тут дело Основной вопрос: стало ли СДВГ больше в следствии большего потребления контента или в следствии того, что мы стали просто больше говорить о нем и лучше диагностировать? Последние исследования говорят нам о том, что СДВГ обусловлено в первую очередь генетикой (я видела гдето исследование, что больше передается по отцу) и мы просто стали чаще его вычислять Важно помнить, что СДВГ — это континуум, где в одной части спектра — креативный, энергичный человек, который не может сконцентрироваться на деталях, а ближе к середине и концу — серьёзное влияние на качество жизни и высокая коморбидность с депрессией, тревожностью, зависимостями Для самодиагностики и нахождении своей локации на этом континууме, конечно, можно использовать стандартные опросники, как этот , но при сильных симптомах я рекомендую идти к психиатру, диагнозы ставит только он. СДВГ относят к нейроразвитийным расстройствам. Это не то же самое, что депрессия или шизофрения: нет галлюцинаций или селфхарма, но есть устойчивые особенности работы мозга, которые мешают жить 2. Медикаментозная поддержка Во многих странах первой линией терапии считаются стимулянты или некоторые нестимулянтные препараты. В России классические препараты первой линии практически недоступны. Чаще могут назначать лечение от сопутствующих состояний — депрессии, тревоги и т.д. 3. Тренинг навыков т ут мог бы быть ваш курс, но нет. Вы понимаете, какие скиллы у вас проседают: забывчивость, прокрастинация, неумение вести календарь. Это можно сделать платно в группе или, допустим, на терапии с психологом В начале практики я быстро распознавала СДВГ у мужчин: гиперактивность, импульсивная речь. Психиатры также были согласны со мной и щедро ставили диагноз. С женщинами всё оказалось сложнее. Внешне спокойные, «хорошие девочки» иногда перебегали от темы к темы, но могли спокойно сидеть, даже делали ДЗ и я и не могла предположить СДВГ, пока не порылась в исследованиях: действительно девушки с СДВГ менее гиперактивны. На это накладывается социальный контекст: мальчику разрешают бегать и шуметь — «ну мальчик же». Девочке чаще транслируют: «не носись, сядь спокойно» В итоге многие женщины активно используют маскинг: стараются выглядеть «нормально» , пряча и компенсируя свои особенности. Изза этого СДВГ у женщин нередко остаётся недодиагностированным. СДВГ это генетически обусловленное нейроотличие, которое несет обладателю дискомфорт в бытовой и карьерной жизни. При этом взамен дает креативный, нестандартный взгляд на мир и возможность гиперфокусироваться на интересных ему вещах Все есть яд и все лекарство: фармакологическое лечение требуется, когда нейроотличие выражено очень сильно и имеет коморбидность с депрессией, тревожностью и т.п. При слабой выраженности, человек может жить спокойно и без мира психотерапии просто развивая необходимые скилы по организации и не ругая себя, если чтото получается не с первого раза Спасибо за прочтение статьи! Подписывайтесь на мой телеграм канал , пишу, как сохранять здоровую менталку, если вы работаете в IT https:www.sciencedirect.comsciencearticlepiiS014976342100049X https:psychiatryonline.orgdoi10.1176appi.ajp.20230026 https:www.biologicalpsychiatryjournal.comarticleS00063223(11)002605abstract
5,737
https://habr.com/ru/articles/975340/
habr.com
Дело было вечером... Сидел я, развлекался переписыванием фронта маркетплейса с React на Preact с Brotli и нативным CSS, чтобы протестировать максимальную оптимизацию. В попытках добиться предельной производительности и скорости решил провести эксперимент по переписыванию бэка на Rust с сжатием БД в Redis — но это совсем другая история. В общем, эксперименты привели меня к идее сделать SSR на Rust, и по бенчмаркам вышел на 95,000 RPS на M4. Это уже само по себе неплохо, ниже расскажу подробнее. Rust позволяет более гибко управлять потоками и памятью. В основе RustySSR — пул V8 изолятов, привязка потоков к ядрам и многоуровневый кэш. Вместо отдельных процессов используются легковесные V8 изоляты в одном процессе Rust, по одному на поток. Это позволяет избежать блокировок: если один изолят занят, другие продолжают работу. Контекстные переключения снижают производительность. Чтобы минимизировать их, каждый поток привязывается к конкретному ядру. Это помогает держать кэш процессора (L1L2) в актуальном состоянии. В облаке эффект может варьироваться, поэтому рекомендуется проверять на профайлинге. Кэширование минимизирует рендеринг. Вместо простой HashMap с блокировками реализован двухуровневый подход: Hot Cache (L1) : Threadlocal, для быстрого доступа без синхронизации. Cold Cache (L2) : DashMap для общего доступа между потоками. Размер кэша задается в элементах (страницах), TTL — в секундах (например, cache_ttl_secs(300)). Метрики доступны через engine.cache_metrics() (hitrate, hotcold hits и т.д.). Для ускорения использованы SSEинструкции для предварительной загрузки данных в кэш CPU. Это как подогреть кофе заранее, чтобы не ждать. Hot Cache разделен на ultrahot массив (8 элементов, для сверхбыстрого доступа) и HashMap (128 элементов). Записи промотируются по LRUпринципу. HTML хранится как Arcstr, чтобы избежать копирования между потоками. Cold Cache использует DashMap с 128 шардами для снижения contention при многопоточности. Тестирование показало 19% к пропускной способности по сравнению с дефолтными 16 шардами. Очередь с таймаутом (request_timeout) предотвращает блокировки. Тесты на Apple M4 (10 ядер), с использованием wrk latency t10 c4001000 d30s на loopback, демоHTML из репозитория, прогретый кэш. В данный момент использую всю эту историю на своем портфолио https:portfolioproductionb677.up.railway.app . Оно пока сырое и преимущественно под десктоп, но как бенчмарк тоже можно использовать — в нем сложный контент с анимациями и Three.js, но загрузка чрезвычайно быстрая. Портфолио на самом дешевом Redisпакете. В реальных сценариях производительность зависит от сети, базы данных и браузера. Но даже небольшое улучшение может снизить затраты на инфраструктуру, а это полезно как минимум для экологии :) В реальных сценариях производительность зависит от сети, базы данных и браузера. Но даже небольое улучшение может снизить затраты на инфраструктуру а это полезно как минимум для экологии ) Rust предлагает инструменты для эффективных вебсерверов. Это мой опыт, который может быть полезен. Код открыт под MIT. Если пробуете, делитесь в комментариях — интересно услышать фидбек.
3,122
https://habr.com/ru/articles/975474/
habr.com
Идея вот в чем: берем стандартные JavaScript модули (ESM) и делаем их прямыми эндпоинтами для генерации любых текстовых вебассетов, таких как HTMLфайлы, CSS, SVG или даже JSON или Markdown, используя простое соглашение о именовании исходных файлов и дефолтный экспорт результата в виде строки (JavaScript Template Literal). Проще некуда и чемто похоже на PHP, верно? Но, что это нам дает? Давайте разберемся, почему JSDA (JavaScript Distributed Assets) это то, что может сделать вебразработку "грейт эгейн", после тысячи поворотов "не туда". Это будет автоматически преобразовано в обычный HTML: JSDA подразумевает следование следующим соглашениям: Для определения типа выходного файла, используется шаблон .type.js , например mypage.html.js , styles.css.js , image.svg.js и т.д. Для определения входной точки генерации статики, используется шаблон index.type.js , например index.html.js , index.css.js , index.svg.js и т.д. JSDAфайл должен быть стандартным ESMмодулем, содержащим экспорт в формате строки по умолчанию ( export default ... ) Структура каталогов при выводе результирующих файлов для статики отражает структуру исходников (мы получаем роутинг на уровне файловой системы): Идти по пути упрощения сложно. Когда мы выкидываем лишнее нам кажется, что мы можем упустить чтото важное. Но, на практике, часто бывает наоборот лишние элементы системы делают ее менее устойчивой и более уязвимой. Упрощать это искусство, которое в ретроспективе может показаться банальным. Но это далеко не так. Когда CEO Netlify, Мэтт Бильманн в 2015 году предложил архитектурную концепцию JAMStack , он сделал именно это упростил. Действительно, зачем нам CMS и база данных, со всеми их уязвимостями и потреблением ресурсов на сервере, если он (сервер), в результате должен отдавать просто статику? Зачем серверу сложная логика, если можно генерировать необходимые ассеты на этапе сборки? Почемубы не раздавать все статические файлы максимально быстро, эффективно и безопасно через CDN, минимизируя нагрузку и существенно улучшая масштабируемость при этом? И главное, зачем усложнять, если лучшего результата мы можем достигнуть упростив? Довольно контринтуитивный ход мыслей на тот момент, но очень правильный. Однако, по моему мнению, JAMStack это слишком общая концепция, набор самых верхнеуровневых рекомендаций, практически, не касающихся никаких деталей реализации и не предлагающих решения конкретных задач, которые могут обладать собственной сложностью. Многие продолжают считать, что у JAMStack подхода есть существенные ограничения, хотя это не так, ведь мы можем комбинировать все это с любыми другими практиками в любых произвольных сочетаниях. В JSDA таже философия, но больше технических деталей. Мы берем нативные возможности вебплатформы (Node.js браузер) и существующие стандарты, и, не добавляя никаких новых избыточных сущностей, решаем задачи, для которых, традиционно, используются значительно более громоздкие решения, при этом, никак себя не ограничивая в диапазоне возможностей. Если JAMStack это, преимущественно, про SSG (генераторы статических сайтов), то JSDA играет на обоих полях, как архитектура применимая для генерации статики, так и динамики. Помимо этого, JSDA никак не ограничивает вас в использовании любых вспомогательных технологий, если это потребуется. Традиционно, мы выделяем следующие варианты работы вебприложений: SPA (Single Page Application) все под контролем клиентского JavaScript, DOMдерево создается полностью динамически на клиенте. SSR (Server Side Rendering) сервер предварительно рендерит страницу, которая, впоследствии, "оживляется" на клиенте с помощью JavaScript. SSG (Static Site Generation) создаем необходимые HTMLфайлы на этапе сборки, которые затем раздаются как статика. Динамическая генерация страниц сервер генерирует HTMLфайлы на этапе запроса, результат можно кэшировать. Эти подходы не исключают друг друга. У каждого из них есть свои сильные и слабые стороны, но их можно эффективно сочетать. В сложных сценариях, например, страницы документации или промоматериалы могут быть полностью статическими, страницы с товарами могут быть, частично, предварительно созданы на сервере а частично содержать динамические виджеты (корзина), а личный кабинет пользователя может быть полностью реализован как SPA. И JSDAстек как раз применим для таких сложных сценариев, оставаясь простым и минималистичным сам по себе. В соответствии со спецификациями, ESM модули асинхронны и поддерживают асинхронные вызовы верхнего уровня Top level await . Это значит, что при генерации ассетов, мы можем делать запросы и получать данные по всей цепочке импортов и зависимостей. Мы можем обращаться к базе данных, внешним API, файловой системе и т.д. Причем, нам не нужно заботится о асинхронной сложности самостоятельно, она "маскируется" под стандартными механизмами ESM, и делая простой импорт зависимости, мы можем быть уверены, что все ее данные получены на этапе резолюции модуля. На мой взгляд, это очень мощная, но недооцененная возможность платформы. Согласно стандарту, ESMмодули автоматически кэшируются в памяти рантайма в момент их резолюции. Это позволяет делать процесс генерации более эффективным, не совершая никаких лишних операций при повторном использовании модуля. Если же, напротив, мы хотим контролировать кэширование и получать актуальные данные из цепочки импортов, мы можем использовать уникальные идентификаторы (адреса) модулей при импорте, например так: При этом, мы можем использовать параметры запроса, которые будут доступны внутри модуля через import.meta , например: Еще одна интересная штука , доставшаяся нам "бесплатно" это возможность сложной композиции результирующей строки. Этот нативный "шаблонизатор" позволяет формировать любую сложную разметку или иную структуру из компонентов, повторно использовать их и внедрять любую логику при генерации. На фоне этой возможности, модные серверные компоненты из экосистемы React и Next.js выглядят просто переусложненной глупостью. Но как нам оживлять разметку на клиенте? Как связать DOMэлементы с данными и обработчиками? Для этого у нас также есть все необходимое, нам ничего не нужно дополнительно изобретать. Решение стандартная группа спецификаций, известная как вебкомпоненты. Приведу упрощенный пример того, как это работает. Вот и все, и никакой ужасной __NEXT_DATA__ как в Next.js. Идентификатором "оживляемой" ноды является наш кастомный тег, который легко перехватывает контроль за своим участком DOM. За все отвечает сам браузер и жизненный цикл CustomElements. Помните, что вебкомпоненты вовсе не обязательно должны содержать Shadow DOM. Но что делать, если компонентов много и у них есть собственная иерархия вложенности? Это тоже просто, привожу очередной пример. На этот раз, простая рекурсивная функция нарисует нам структурированный HTML: Для более полноценной работы с вебкомпонентами вы можете использовать любую популярную библиотеку . Лично я использую Symbiote.js , так как он адаптирован для работы с независимыми от контекста исполнения HTMLшаблонами (и не только). С преобразованием JSDAфайлов в текстовые вебассеты все понятно, но возникает следующий вопрос, как нам представить обычные текстовые файлы в формате JSDA? Перед экспортом содержания файла, можно проводить любые промежуточные преобразования, например, можно добавлять нужную цветовую палитру в SVG и даже делать автоматический перевод документа через обращение к LLM. Вернемся к стандарту ESM и его замечательным возможностям, а именно к возможности загрузки модулей напрямую из CDN через HTTPS. Это полноценно поддерживается как в Node.js, так и в браузере. На уровне CDN (или даже вашего собственного ендпоинта) может происходить автоматическая промежуточная сборка и минификация модулей. Так работает множество популярных специализированных CDN для доставки кода, таких как jsDelivr, esm.run, esm.sh, cdnjs и многие другие. Это позволяет эффективно управлять внешними зависимостями, разделять циклы деплоймента для элементов сложных систем. Для управления такими зависимостями, крайне полезным инструментом является нативная браузерная технология importmap . Забудьте о всяких нелепых штуках типа Module Federation, платформа уже предоставляет нам все необходимое. Также, для работы с JSDAзависимостями (особенно в контексте сервера) отлично подходит простой советский npm , где из коробки мы получаем контроль версий. Все вышеперечисленное в предыдущем разделе объясняет наличие слова "Distributed" в акрониме JSDA . Простые и понятные модели композиции очень важны на экосистемном уровне, где поставщики решений могут быть слабо связаны между собой. В экосистеме JSDA очень просто создавать интегрируемые решения, так как вы всегда можете опираться на самые базовые стандарты и спецификации, не изобретая лишние велосипеды. Один из ключевых механизмов безопасности в JSDAстеке это SRI (Subresource Integrity) проверка целостности JSDAзависимостей через хеширование. В самом начале, я упомянул PHP, и у вас может возникнуть вопрос: если JSDA работает почти как PHP, то почему бы просто не использовать PHP? Во первых, PHP это процессор гипертекста. Работа с выходными форматами отличными от HTML (XML) там может быть не такой безболезненной, как хотелось бы. В PHP просто нет полноценного аналога шаблонных литералов, как в JS. Во вторых, JavaScript это, нравится вам это или нет, единственный язык программирования в вебе, полноценно и нативно поддерживающийся как на сервере, так и на клиенте. В третьих, и это самое главное, используя один язык вы можете повторно использовать одни и теже сущности в серверном и клиентском коде, писать, так называемый, "изоморфный" код, за счет чего ЗНАЧИТЕЛЬНО экономить на всех сопутствующих разработке процессах, включая ментальные, в вашей голове. Вам не приходится переключаться между языками, не приходится писать кучу отдельных конфигов, ваш проект проще тестировать и поддерживать c меньшими ресурсами. Благодаря изоморфизму и единому языку, JSDA , будучи, преимущественно, серверной технологией, при необходимости, может легко, и, практически бесшовно, применяться и на клиенте. Без TS в современной разработке никуда. Однако, сам TypeScript, будучи важным экосистемным инструментом статического анализа, содержит в себе ряд сложностей и спорных моментов, которые всплывают как только вы попытаетесь сделать нечто более заковыристое. Если вы когдалибо занимались разработкой собственных библиотек вы сразу поймете о чем я говорю. Автор этих строк пришел к использованию деклараций типов напрямую в JSкоде в формате JSDoc , совместно с дополнительными файлами .d.ts , как к наиболее сбалансированной практике использования TypeScript. И в этом я не одинок, я встречаю все больше опытных разработчиков, которые делают также. Применимо к JSDA , такой подход дает следующие преимущества: нет дополнительных этапов сборки: каждый модуль может быть самостоятельным ендпоинтом работает именно тот код, который вы написали, вы не разбираетесь с глюками sourceMap при дебаге нет проблем со следованием стандартам (например, идентификаторы ESM содержат расширения файлов, в TS это не обязательно) JSDoc удобнее для комментирования позволяет автоматизировать создание документации, для чего, собственно, он и был предназначен Но, если вам такое не нравится вы можете совершенно спокойно использовать синтаксис TypeScript, он вполне совместим с принципами JSDA . При работе с AIпомощниками в разработке мы сталкиваемся с одной проблемой, о которой, почемуто, пока мало говорят. AI склонен воспроизводить популярные подходы и паттерны, без глубокого анализа их эффективности и применимости в конкретном случае. У AI пока очень плохо с тем самым упрощением, о котором я говорил ранее. React стал слишком жирным и тормозным? Не важно, AI предложит использовать именно его, просто потому, что в сети больше примеров кода. В этом отношении, AI ведет себя как джуниор, не способный брать на себя ответственность за архитектурные решения, предполагающие выбор. При этом, сам AI, глобально, нуждается в оптимизации потребления токенов, и это вполне может находить отражение в технологиях, которые мы используем. Простота наших решений, включающая в себя сокращение сущностей, которыми мы оперируем должна повлиять на ситуацию позитивно. Поэтому, важно создавать новые минималистичные паттерны, такие как JSDA, которые в целом должны положительно повлиять на индустрию. До сих пор, я говорил о JSDA как о наборе соглашений и архитектурном принципе, без привязки к конкретным инструментам и не принуждающем использовать чтото конкретное. Конечно, чтобы все это ктото использовал нужна экосистема решений, позволяющих быстро развернуть проект и максимально быстро получить первые результаты. Разработкой такой экосистемы я и занимаюсь в последнее время. Хотелось бы привлечь к этому сообщество и двигаться дальше вместе. JSDAKit изоморфная библиотека инструментов для работы с JSDAстеком Symbiote.js библиотека для эффективной работы с вебкомпонентами, позволяющая очень гибко работать с HTML Из всего перечисленного, самым взрослым (production ready) проектом является Symbiote.js, остальное в активной разработке, но попробовать можно уже сейчас. В перспективе, планируется создание специализированной CDN, которая, помимо предварительной сборки и минификации модулей, будет автоматически выдавать готовые файлы в итоговом формате (HTML, CSS, SVG, Markdown, JSON и т. д.). Сайт моей собственной RDстудии, как и некоторые наши важные проекты, сделаны полностью на JSDAстеке, этот подход УЖЕ доказал свою надежность и эффективность.
13,509
https://habr.com/ru/companies/ggsel/articles/975216/
habr.com
Steam Deck стал одним из самых заметных экспериментов Valve. Первая версия показала, что портативный ПК может быть самостоятельной платформой, где удобно запускать как индиигры, так и многие крупные проекты. Обновление с OLEDэкраном закрепило успех, улучшив качество изображения и автономность, но при этом сохранило ту же архитектуру. Сегодня внимание игроков сосредоточено на возможном Steam Deck 2. Ожидания связаны не только с ростом производительности, но и с тем, как Valve сможет развить идею портативного ПК, сохранив баланс между удобством, доступностью и техническим прогрессом. Вопрос особенно интересен в условиях конкуренции с Nintendo и появлением множества альтернативных устройств на базе Windows. Первая модель доказала, что портативный ПК может быть востребованным продуктом, но ее успех во многом связан с уникальной нишей — доступ к библиотеке Steam в удобном формфакторе. Это преимущество остается актуальным, однако вопрос требует более глубокого рассмотрения. Вопервых, портативный формат неизбежно сталкивается с ограничениями. Современные AAAпроекты требуют высокой производительности и значительных ресурсов, что трудно совместить с компактным корпусом и ограниченной батареей. Даже при оптимизациях и снижении настроек графики Cyberpunk 2077 или Assassins Creed Shadows на портативных устройствах остаются компромиссным опытом. Steam Deck 2, каким бы мощным он ни был, скорее всего не сможет полностью устранить фундаментальные ограничения формфактора. Вовторых, аудитория Steam Deck уже сформировала собственные привычки. Для многих пользователей устройство стало платформой для индиигр, ретропроектов и менее требовательных тайтлов, где портативность ценится выше ультранастроек. В этом сегменте рост производительности не является критически важным фактором. Более значимыми оказываются улучшения экрана, энергоэффективности и удобства — именно поэтому версия с OLEDпанелью получила положительный отклик, несмотря на отсутствие серьезного прироста мощности. Втретьих, стратегический контекст. Valve не конкурирует напрямую с Nintendo или Sony в области эксклюзивов, а делает ставку на экосистему SteamOS и доступ к библиотеке ПКигр. Это означает, что компания может позволить себе более осторожный подход: выпускать новое устройство только тогда, когда технологический скачок действительно оправдает затраты. Такой подход снижает риск разочарования аудитории и позволяет Valve сохранить имидж компании. В целом, Valve должна оценивать не только возможности новых чипов AMD или OLEDпанелей, но и то, насколько рынок готов принять новое устройство, которое все равно останется компромиссным для AAAигр. С точки зрения архитектуры, ключевым элементом станет новый чипсет. Первая модель использовала кастомный APU от AMD на базе Zen 2 и RDNA 2, что обеспечило баланс между производительностью и энергопотреблением. Однако сегодня это уже устаревшее решение. Логичным шагом станет переход на архитектуры Zen 5 или 6, где акцент сделан на энергоэффективные ядра и поддержку современных инструкций. Такой переход позволит повысить производительность в многопоточных задачах и снизить тепловыделение, что критично для портативного формата. Графическая часть также нуждается в обновлении. RDNA 2 в первой модели обеспечивала базовый уровень совместимости с современными играми, но для стабильного запуска проектов 2025–26 годов потребуется RDNA 4 или ее производные. Это даст прирост в рендеринге, улучшенную работу с трассировкой лучей и более эффективное использование памяти. Важно, что Valve совместно с AMD активно оптимизирует драйверы под SteamOS, и именно эта связка может стать конкурентным преимуществом: не просто «новый чип», а комплексная интеграция железа и системы. Подсистема памяти — еще один узел, где возможен заметный скачок. Steam Deck первого поколения использует LPDDR5, но к моменту выхода второй модели стандарт LPDDR5X или даже LPDDR6 может стать доступнее. Более высокая пропускная способность памяти напрямую влияет на производительность графики и стабильность работы в тяжелых играх. Кроме того, рост объема оперативной памяти до 16 или даже 32 гигабайт позволит устройству комфортнее справляться с современными AAAпроектами и многозадачностью. Если вкратце: от Steam Deck 2 требуется переход на новые энергоэффективные ядра AMD, использование графики RDNA 4, а также внедрение более быстрой и емкой памяти. Только эти три направления вместе способны оправдать выпуск нового поколения, обеспечив реальный технологический скачок, который сделает портативный ПК лучше подготовленным к будущим релизам игр. Если архитектура Steam Deck 2 будет строиться вокруг нового SoC и более быстрой памяти, то аппаратные изменения должны закрепить этот фундамент в реальном пользовательском опыте. Главный вызов для Valve — сохранить баланс между ростом мощности и удобством, чтобы устройство воспринималось не как «миниПК с компромиссами», а как полноценная портативная платформа. Первое направление — система охлаждения. Steam Deck первого поколения показал, что компактный корпус требует очень точной настройки: шум вентилятора и нагрев корпуса напрямую влияют на восприятие устройства. Для второго поколения ожидается более эффективный тепловой дизайн, возможно с использованием новых материалов для отвода тепла и оптимизированных профилей работы кулера. Это позволит удерживать стабильные частоты процессора и графики без заметного роста шума. Второе направление — аккумулятор и энергопрофили. Даже при переходе на энергоэффективные ядра AMD рост производительности неизбежно увеличит нагрузку. Valve придется либо увеличить емкость батареи, либо внедрить более гибкие режимы энергопотребления, где пользователь сможет выбирать баланс между производительностью и временем работы. Многие эксперты именно автономность называют ключевым фактором, который определит успех Steam Deck 2. Третье направление — эргономика и контроллеры. Многие владельцы оригинала хотели бы более надежных стики с защитой от дрейфа, улучшенную тактильную отдачу и переработанную форму корпуса для снижения нагрузки на руки при длительных игровых сессиях. Это не косметические изменения, а важная часть восприятия устройства как комфортного инструмента для ежедневного использования. Четвертое направление — интерфейсы и подключение. Steam Deck OLED уже получил WiFi 6E и Bluetooth 5.3, но для Steam Deck 2 логично ожидать поддержку более быстрых портов USB4 или Thunderboltсовместимых решений. Это расширит возможности докстанций и подключения внешних устройств. Резюмируя: от Steam Deck 2 многие ждут более тихое и эффективное охлаждение, увеличеную автономность, более удобные контроллеры и расширенные возможности подключения. Valve не спешит с заявлениями, оставляя пространство для слухов и аналитических прогнозов. В англоязычных источниках чаще всего звучит дата 2026 года как наиболее вероятный срок релиза. Valve традиционно ждет технологического скачка, а не выпускает устройства ради маркетингового цикла, поэтому ожидания связаны именно с появлением новых архитектур AMD и более быстрой памяти. На фоне этой неопределенности конкуренты активно занимают рынок. Nintendo Switch 2, вышедшая в 2025 году, закрепила позиции в массовом сегменте благодаря эксклюзивам и обновленной архитектуре. Параллельно Windowsпортативы вроде Lenovo Legion Go 2 и ASUS ROG Ally X предлагают альтернативы с более мощными чипами и гибкостью операционной системы. Эти устройства показывают, что сегмент развивается стремительно, и Valve рискует потерять часть аудитории, если затянет с новым релизом. Цена будущего устройства пока не обсуждается официально, но аналитики предполагают сохранение доступности. Именно массовый рынок стал ключом к успеху первой модели, и отказ от этой стратегии может подорвать позиции Valve. Даже если себестоимость вырастет изза новых компонентов, компания, скорее всего, постарается удержать цену в пределах, которые позволят конкурировать со Switch 2 и Windowsпортативами. Несмотря на высокий интерес к Steam Deck 2, нельзя исключать сценарий, при котором Valve вовсе откажется от его выпуска. Главным фактором риска остается глобальный рынок полупроводников. Дефицит памяти и рост ее стоимости делают производство нового устройства значительно дороже, а нестабильность поставок создает угрозу срыва сроков. Для компании, которая традиционно избегает поспешных решений, такие условия могут показаться слишком рискованными. Valve может посчитать, что выпуск Steam Deck 2 в подобных обстоятельствах не оправдает затрат. Вместо этого компания, например, сосредоточится на развитии SteamOS как самостоятельной платформы. То есть Valve будет обеспечивать совместимость и удобство работы с библиотекой Steam, не беря на себя расходы по созданию нового железа. Также возможный сценарий — оставить первую модель и ее OLEDвариант как «финальную» версию линейки. Это позволит сохранить экосистему и аудиторию, но без необходимости инвестировать в новое поколение. Steam Deck 2 остается устройством ожиданий и споров. На фоне конкуренции со Switch 2 и Windowsпортативами компания Valve стоит перед выбором: либо предложить реальный технологический скачок, либо сосредоточиться на развитии SteamOS и поддержке сторонних производителей. Важно помнить, что первая модель уже изменила рынок. Steam Deck стал символом того, что портативный ПК может быть полноценной платформой, а не компроиссом. Даже если второе поколение задержится или вовсе не появится, культурное значение первой версии и экосистемы SteamOS останется. Сообщество продолжает развивать ее самостоятельно, а интерес к формату не угасает. В любом случае Steam Deck уже занял свое место в истории гейминга, и его влияние будет ощущаться независимо от того, появится ли полноценная вторая модель. Читайте также: « Лучшие игры для Steam Deck, которые быстро работают, хорошо выглядят и не разрядят батарею за полчаса »
9,805
https://habr.com/ru/companies/electroconnect/articles/975310/
habr.com
В отделе инженеров конструкторов мы часто сталкиваемся с тем, что разработчик присылает не Gerber файлы проекта, а сам проект, с расчетом на то, что мы Gerber файлы извлечем. Мы можем это сделать, но по опыт подсказывает: если хочешь получить плату ровно такой, как спроектировал, лучше выдать Gerber из своего проекта, из своей программы и своего ПК. На каждом компьютере в каждой программе есть свои настройки по умолчанию, например: открытие закрытие переходных отверстий, шаг сетки, шрифт маркировки. При извлечении Greber файла у нас могут быть другие настройки и, соответственно, проект рискует получится на выходе другим. Не все умеют извлекать Gerber файлы, а нужно отметить, что gerber файл нужен на каждый слой меди, маркировку, маску, сверловку и так далее. Делимся как это можно сделать на примере популярной программы Sprint Layout 6.0 . Надеемся Вам будет полезно. Ждем от вас обратную связь полезна ли была инструкция. Если да, мы продолжим. Итак, у вас готова печатная плата в программе Sprint Layout версии 6.0 и вам необходимо сделать ее заказ у производителя. Для этого понадобятся два типа файлов Gerber файлы и файлы сверловки Excellon. Файлы типа Gerber это файлы, содержащие описание платы для её создания на производстве. Простым языком это двухмерное изображение слоя платы с строгими привязками к координатам. Этот тип файлов описывает все, что мы можем видеть в двухмерном пространстве, то есть это линии, дуги, контактные площадки, изгибы полигонов и т.д. Но этот тип файлов не даёт понятия о переходных отверстиях. Для этого необходимы файлы типа Excellon. Файлы типа Excellon описывают все, что связано с отверстиями на плате диаметр отверстия, расположение, наличие металлизации, диаметр металлизации. Начнём со способа экспорта файлов типа Gerber. Для экспорта Gerber файлов необходимо зайти в меню Файл Экспорт Формат Gerber Далее нам откроется меню настройки экспорта файлов. Где мы можем выбрать необходимые слои. Важно учесть, что в программе Sprint Layout заранее заложено предназначение слоев, и их необходимо использовать только так, как это предложено разработчиком ПО. На выбор у нас есть 4 слоя фольги, а это означает, что максимальное количество слоев у платы четыре. В разделе Опции присутствует вариант Отобразить зеркально в большинстве применений это не требуется. Изготовленные Gerber файлы будут изображать зеркально отображенную плату. Галочку не ставьте, получите проблемы! Рамка для разлома добавление к плате места для скрайбирования при соединении плат в панель. В основном это требуется когда сборку плат в панель вы хотите поручить производителю, а не собирать панели самостоятельно. По линии скрайбирования платы будут отсоединяться от панели. По умолчанию она основывается на области вашего рабочего поля в программе, и не зависит от слоя Контур. Задается размер рабочего поля в меню Платы Свойства платы Разметка отверстий данный параметр необходим при ручной сверловке отверстий, в местах отверстий будут протравлены участки, предназначенные для сверловки отверстий диаметром таким же, как и заданное в программе отверстие, в случае заказа платы на производстве установка этого параметра бесполезна. Керн — используется совместно с предыдущим параметром, на переходное отверстие наносится кернение. При выборе этого параметра в центре отверстия протравливается маленький участок радиусом 0.15мм. Это и есть кернение — условное обозначение центра отверстия. При заказе плат на производстве роли не играет. Для наглядности ниже приведены два изображения того, как будет изготовлена плата при различном выборе опций. Разметка отверстий Керн В этом же меню далее можно настроить характеристики паяльной маски. Если вы решили использовать защитную маску, то здесь можно настроить величину, на которую маска будет отступать от мест пайки. Рекомендуется делать отступ, иначе процесс пайки может существенно усложниться. Можно выбрать припуск от обычного контакта, контакта SMD элементов или выбрать припуск для других (Другое) элементов на плате, если таковые имеются. Припуск на SMD маску эта опция используется для изменения размеров трафаретов маски для нанесения паяльной пасты, применяемой при монтаже компонентов на SMD контактах. Как правило, размер маски для нанесения паяльной пасты делается чуть меньше, чем размер контактной площадки. Применяется при использовании трафарета для нанесения паяльной пасты. Ниже мы можем видеть окно задания общего имени для Gerber файлов. В данном случае название файлов состоит из: Здесь мы можем задать общее имя файла и выбрать название назначений слоев для текущих и последующих Gerber файлов в меню Имена файлов для экспорта. После этого необходимо выбрать директорию для сохранения файлов. Далее нажимаем создать файл Gerber и они появляются в нашей папке. Теперь перейдем к созданию Excellon файлов (файлов сверловки). Для их создания необходимо зайти в меню Файл Экспорт Формат Excellon Здесь нам предоставляется Выбор отверстий. Можем, к примеру, не экспортировать отверстия без металлизации, которые использовались для проектирования платы, но досверливать придется вручную. Далее идёт Выбор стороны сверловки обычно выбирается Сверху(стандарт). По запросу производителя, можно экспортировать снизу в формате Gerber или HPGL. Опция сортировать отверстия ни на что не повлияет, но отсортирует отверстия по их диаметрам в выходном файле. Это несколько упростит сверловку отверстий в автоматическом режиме. В поле Формат можем настроить единицы измерения и формат выходного файла. Перевод единиц измерения в нужные в машине для сверловки произойдет автоматически независимо от того, какой формат вы выбрали. Проектируя плату в миллиметрах, предпочтительнее выбирать формат выходного файла в миллиметрах. Опция Убрать нули перед запятой служит для минимизации размера файла путем убирания ненужных знаков. В наше время нельзя назвать эту функцию актуальной. Опция Число с десятичными знаками позволяет разделить целую часть координат от дробной точкой. Данная опция включается по требованию производителя. В нашем случае её включать не нужно. Ниже представлены Специальные опции, которые различные производители могут требовать перед получением Excellon файлов. Включать их стоит только по рекомендации производителя. Далее нажимаем ОК и выбираем директорию для сохранения файла. После создания всех файлов лучшим решением будет поместить файлы в архив формата ZIP, не RAR. Формат ZIP воспринимает большее количество производителей печатных плат. В таком виде файлы можно отправлять производителю и согласовывать производство. Если остались вопросы пишите, будем рады помочь. .
6,594
https://habr.com/ru/companies/nanosoft/articles/973216/
habr.com
Приглашаем вас принять участие в открытом профессиональном обсуждении практического опыта реализации пилотного проекта с использованием российского программного обеспечения. Тема мероприятия: «Проектирование школы на 1100 учащихся в г. Кемерово в среде nanoCAD BIM» . Когда: 11 декабря (четверг), 11:00–12:00 (МСК) Формат: онлайн, по предварительной регистрации Стоимость: бесплатно Не стандартный вебинар с презентациями, а живой диалогподкаст с ключевыми участниками процесса. Максим Дубенский, директор ГБУ «Проектный институт "Кузбасспроект"» ( Заказчик ). Денис Ожигин, технический директор «Нанософт» ( Вендор ). Сергей Устинов, технический директор «РОМБИТ» ( Интегратор ). Вызов. Почему проектный институт «Кузбасспроект» решился на пилот в новом для себя ПО? Выбор. Какие именно продукты «Нанософт» были выбраны и по каким практическим критериям? Адаптация. Что поначалу казалось непривычным, но в итоге повысило эффективность работы? Итоги. Какие результаты уже достигнуты в рамках пилота? Развитие ПО. Какие перспективы для nanoCAD BIM Строительство открылись благодаря обратной связи в рамках проекта? Ответы на ваши вопросы. Разговор без формальностей и «воды». Руководителям проектных организаций и департаментов цифровизации. Руководителям проектных групп и главным инженерам проекта (ГИП). Инженерампроектировщикам, оценивающим переход на отечественные BIMплатформы. Представителям заказчиков и техзаказчиков, интересующимся технологиями. Это редкая возможность заглянуть «за кулисы» сложного процесса – от принятия решения до конкретной реализации в условиях действующего импортозамещения. Услышать одновременно и про боли, и про найденные решения, и про видение развития платформы. Регистрируйтесь , задавайте свои вопросы и готовьтесь к честному разговору о реальном опыте.
1,792
https://habr.com/ru/articles/975824/
habr.com
Недавно получил задачу сделать автоматизированную оцифровку характеристик из паспортов товаров в БД, а не изменение параметров вручную в ERP. Я подумал, было бы здорово поделиться, как я это сделал, с вами на Хабре! Система должна принимать разные форматы (.doc, .pdf, .png) Возможность создавать динамические таблицы, куда ИИ будет заполнять сама информацию, а не хардкодить для каждой категории паспорта свои отчеты Желательно, чтобы все работало на одной видеокарте (в моем случае 3090 на 24GB VRAM) Для реализации задачи, я решил развернуть 2 ИИ модели — deepseekocr7b и Qwen1.5. Первая будет считывать текст из изображений, а вторая преобразовывать сырой текст в json, который, затем, будет распределяться по полям таблицы. Скачать весь проект вы можете тут — https:github.comChashchinDmitryllmocrhandmade Для начала, нам нужно установить драйвер NVIDIA. В моем случае, это 576.66 серия, но если у вас другая видеокарта, то введите свою модель и серию тут . Если команда показала чтото с Nvidia и номер модели, значит мы удачно скачали драйверы. В настройках Docker Desktop включить "Use WSL 2 based engine" Очень важно подобрать под себя верную версию vLLM под вашу видеокарту. Немаловажно, она должна быть совместима с вашей версией драйвера. Для DeepSeekOCR и Qwen1.5, я выбрал vLLM v0.11.2 с CUDA 12.9 (с версией ниже, у вас ничего не запустится) Подробнее, как подобрать нужную версию vLLM под вашу GPU можно тут . Мне понравилось отзывы от новой deepseekocr, а еще она очень компактная, поэтому, я решил, что она идеально подойдет к моему кейсу. Вот ее требования: Моя задача развернуть все разом на одной видеокарте, поэтому я выбирал самые маленькие LLM, которые только есть. Более того, мне надо сырой текст преобразовывать в json, с чем микро модели будут справляться идеально и, самое главное, быстро. Мы выбрали 1.5B — влезает вместе с OCR на 24GB и достаточен для структуризации JSON. Важнейший нюанс! DeepSeekOCR использует особый формат промпта, не стандартный OpenAI. Потенциальная проблема, которая у вас может возникнуть — "max_tokens is too large" DeepSeekOCR имеет контекст 4096 токенов. Если запросить max_tokens4096 , а input занимает 100 токенов — ошибка. Проблема: OCR возвращает 8000 токенов из многостраничного PDF, а Qwen имеет контекст 2048. Решение: Увеличить maxmodellen в dockercompose: Важно: Больший контекст больше VRAM. На 24GB влезает 16K контекст для 1.5B модели. Пора зайти и посмотреть что получилось. Сразу скажу — весь фронт я навайбкодил, потому не ругайтесь на английский язык. Уже неплохо. Можно создать свою схемутаблицу и настроить в ней колонки. Давайте это и сделаем. Отлично, теперь давайте запустим первый PDF файл. В качестве примера, я зашел по первой ссылке в Яндекс Маркет и распечатал характеристики ведра Примерно такой результат должна выдать программа (у меня не сохранился оригиналоцифровки ведра выше). По моему очень даже неплохой результат для такого серьезного кейса. А главное, работает все локально без запросов в облако. Буду рад за лайк и подписку на канал :) https:t.menotes_from_cto
3,057
https://habr.com/ru/articles/974110/
habr.com
ВАЖНОЕ уточнение «позиции» На протяжении всего эссе я использую слово «влияет», однако я соглашусь с критикой, что это не в полной мере так. Уместнее сказать, что «связано», а вот природу связи еще предстоит выяснить при дальнейших исследованиях. Год назад я взялся за написание педагогической диссертации, и одним из вопросов, который меня волновал, был: а действительно ли смартфоны влияют на успеваемость учеников?. Вроде как здравый смысл и общепринятая точка зрения говорят, что да, влияют. Есть даже уйма исследований о влиянии смартфонов на познавательные способности человека, но это слишком абстрактно, что ли. И я не был бы ученым, если бы поверил на слово, тем более, что, как говорил Вольтер: Здравый смысл встречается не так уж часто.[1] Мне не удалось найти в русской академической среде хоть какието публикации, которые либо подтвердили бы здравую мысль, либо опровергли её. Я немного погоревал и закончил поиск. Вместо того чтобы искать, решил провести своё исследование. Ведь у меня есть доступ к целой школе, в которой полнымполно детей. Создал опросник, погонял его немного и вывел третью (всё ещё не самую лучшую) редакцию опросного листа. В час икс, в день дэ, по согласованию с администрацией, мы разослали этот лист детям. В опросе приняли участие 198 ученика 8–9 классов, того самого сладкого возраста, который, по мнению Людмилы Ясюковой, страдает больше остальных от утраты познавательных способностей[2]. Но проработать результаты опросника мне никак не удавалось: я не знал инструментария анализа (и сейчас, если честно, есть шероховатости), поэтому результаты опроса детей пролежали чуть меньше года без дела, но сегодня настал второй час икс и день дэ, когда мне удалось проработать результаты исследования. После чистки данных количество респондентов немного сократилось до 183, из которых 114 девочек (62,3%) и 69 мальчиков (37,7%). Средний возраст — 14,62 годика, средняя успеваемость — 4,12, среднее количество экранного времени — 7,51 часа, а сна — 6,68 (это первый красный флажочек, который остался незамеченным поначалу). Я особо не вычищал статистические выбросы, хотя, может, и нужно было. Их не очень много — может, один или два с обоих полюсов. При 183 респондентах незначительное количество выбросов влияния на результаты не окажет. ТикТок хуже Телеграма влияет на оценки (взял смеха ради). Экранное время негативно влияет на спортивные активности. Развитое логическое мышление крайне положительно влияет на оценки. Мы немного поговорим об отдельных гипотезах из списка, а потом я обобщу всё в таблице. Первые три пункта были логичными и прямыми, в лоб, так сказать, но там получилось всё не так однозначно, поэтому я пошёл хулиганить: сначала глянул, как приложения влияют на сон или оценки — оказалось, что никак. Потом подумал: а что, если дети, которые занимаются спортом, спят лучше? Тыкнул — и нифига себе, статзначимый результат. Думаю: отлично, а давай проверим, что там у нас с экранным временем и влиянием на сон — фигак, ещё один статзначимый результат. Но тут приключения не закончились. Когда я проектировал опросник, Максим Дорофеев предложил воткнуть туда тест на сложные аналогии[3], то есть у меня есть измерения степени логического мышления детей. Тест непростой, поэтому я не ожидал высоких результатов — так и получилось. Однако я решил проверить вот что: существует ли связь между результативностью теста и оценками? Иными словами, решил оценить тренд цифрового слабоумия[4]. И каким же было моё удивление, когда оказалось, что связи нет. То есть количество часов в телефоне и результаты теста на логику вообще никак не связаны, значит, нет цифрового слабоумия. Тем не менее результаты теста на сложные аналогии очень хорошо предсказывают успеваемость — тут, пожалуй, мы Америку не открыли, но пусть будет. Вот результат: У тех, кто много использует телефон, и у тех, кто не очень много, в одинаковой степени развито логическое мышление. Позволю себе вернуться к оценкам в школе и экранному времени. Выяснилась очень интересная особенность: экранное время сильнее влияет на оценки девочек, чем на оценки мальчиков. Посмотрите на линии: они имеют нисходящую динамику, то есть эффект негативный. Тем не менее pvalue 0,089, что значит, имеется некоторый тренд, но не статистически значимый результат[5]. При этом обратная картина, если смотреть, как количество сна влияет на оценки, — буквально развернутый. В этом месте мне подумалось: а что, если спорт както влияет на количество сна? И таки да, влияет. Те, кто ходят три раза в неделю на тренировку, спят в среднем на 40 минут дольше, чем те, кто не ходят или ходят 1–2 раза в неделю. Мне в этот момент вспомнилась книга Мэтта Уокера Зачем мы спим[8]. В одной из глав он приводил в пример исследование, где измерялась реакция и интеллектуальные способности человека с недостатком сна. Так вот, если человек недоспал 20 минут (или около того) — это равно одной выпитой бутылке пива, а дальше эффект уже в прогрессии, недосыпопьянение. И здесь я задумался: а как у тех, кто занимается спортом более 3 раз в неделю, с оценками? И закономерно — у них они выше. Конечно, выше: если быть трезвым в школе, то будешь и учиться лучше. Когда я увидел столбики спорт–оценки, настал момент ЭВРИКИ. Что будет, если поставить в ринг сон и экранное время — кто из них первым отправит в нокаут школьные оценки ребёнка? Однако, как это рассчитать, я не знал. Немного поковырялся в интернетах, спросил ИИ — и на выходе получил метод множественной линейной регрессии[7], при котором используются две независимые переменные (сон и экранное время) при прогнозировании одной зависимой переменной (оценки)[6]. И тут вот что оказывается! Если брать сон и экранное время как предсказатели успеваемости, то сон вообще не имеет значения (pvalue 0,55), а вот экранное время отправляет в нокаут успеваемость (pvalue 0,002). При этом, если посчитать экранное время в будни и выходные отдельно, то будние дни, с чуть более худшим pvalue 0,008, имеют значительно более негативный эффект на успеваемость, потому что, скорее всего вытесняют время, отведённое на учёбу. Относительно значимо ( ). Когда рассматриваем изолированно от других факторов, виден негативный тренд, который слегка не дотягивает до статзначимого критерия pvalue 0,05. Значимый результат ( ). Статистически обоснована гипотеза. Как только экранное время идёт вверх, время сна идёт вниз. Статистически незначимо ( ). Вообще нет связи. Один лишь сон ничего не решает, по крайней мере в текущей выборке. МИФ Может, потому что пользователи ТикТок проводят больше времени в приложении, но они спят не меньше, чем пользователи Телеграм. Это так, мысли вслух и просто смеха ради. Есть значимость 2–3 тренировки в неделю ведут к значительно большему сну ( ) в сравнении с теми, у кого активность ниже. Однако перетренировка более трёх раз может приводить снова к уменьшению сна. Ничего не указывает на это ( ). Очень сильное отсутствие результата. Экранное время вообще не имеет связи с умением логически мыслить. 7. Экранное время негативно влияет на спортивные активности Значимый результат ( ). Много экранного времени напрямую влияет на низкую физическую активность. МАКСИМАЛЬНО ЗНАЧИМО ( ). Учащиеся с высокими оценками теста сложные аналогии имеют значительно более высокие оценки. 9. Комбинированный эффект от экранов и сна на оценки МАКСИМАЛЬНО ЗНАЧИМО ( ). А вот тут самое интересное: когда мы анализируем комбинированный эффект экранного времени и часов сна, то экранное время становится крайне сильным предиктором низких оценок, в то время как сон остаётся всё так же незначимым. Что подтверждает изначальную гипотезу: экранное время сильнее влияет на академические успехи, чем усталость от недосыпа. В заключение мне бы очень хотелось сказать, что всё пройдёт, и дети перебесятся, станут ответственными и дисциплинированными, перестанут залипать в гаджетах, и оценки у них начнут улучшаться, но нет, не скажу. Как отец двоих детей: студентки первого курса Пироговского медуниверситета и шестиклассника, скажу, что так оно не будет, а будет лишь хуже. Взглянув на таблицу выше, могу сказать, что нам поможет: спорт три раза в неделю, ограничение времени перед экраном смартфона и режим сна (в 22:00 — на горшок и в люлю). Тут есть небольшой нюансик, который хочется уточнить: 2–3 раза спорт — это, конечно, хорошо, но в опроснике я упустил один крайне важный вопрос: сколько у вас дополнительных занятий в неделю (репетиторы, кружки и прочее)? Это тоже может быть сильным предсказателем академического результата и возможного малого (более низкого) числа часов экранного времени. Вот поэтому мне нравится медленно работать с данными — иногда хорошие мысли приходят после того, как поспал, или погулял, или когда ктото чтото совершенно случайно сказал, или когда сам заметил цифру, на которую раньше не обращал внимание. Так случилось и тут. Экранное время оказывает лишь 6,1% влияния на академическую успешность, то есть на оценки. Остальные 93,9% зависят от учителя, школьной программы, прилежности ученика при выполнении домашнего задания, природного таланта (да, такое тоже не стоит сбрасывать со счетов). Но ни одного из этих показателей у меня нет. А если бы даже я запланировал их измерить, то, скорее всего, это было бы невозможно, потому что оцифровать природный талант — задача с тремя звёздочками. Но что у меня есть — так это спорт и сон. И мне стало интересно, как экранное время, недостаток сна и недостаток спорта влияют на успеваемость ребёнка. Назовём это измерение условным накопительным эффектом факторов риска. Когда я это рассчитал, меня и тут ждал сюрприз. 0 – нет факторов риска (низкий показатель экранного времени, достаточно сна и несколько раз в неделю спорт) 1 – один фактор риска (или экранное время, или сон, или спорт) 2 – два фактора риска (любая комбинация из двух факторов) 3 – три фактора риска (высокое экранное время, недостаточно сна и недостаток спорта) Нифига себе! Если у ребёнка только один фактор риска, то он на самом деле повышает свои оценки. Это наталкивает на мысль, что ребёнок крайне устойчив к плохим привычкам: если присутствует чтото одно (и иногда и два фактора), то успеваемость даже увеличивается — возможно, потому что он своеобразно отдыхает. Но когда к одному из факторов добавляются два других, начинается падение. Вот разбивка по средним баллам: Между двумя последними группами падение в 0,33 балла — это очень много. Я думал, что ошибся гдето, составил вместе с Gemini 3 Pro скрипт для расчёта pvalue, которое оказалось 0,014, и это статистически значимо. Подведу итог этого раздела: фактор риска имеет накопительный эффект . Если присутствует чтото одно — это, возможно, даже станет причиной роста успеваемости. Но когда добавляется чтото ещё, комбинированный эффект отправляет в нокаут спортсмена из синего угла – хорошие оценки. Можно ещё посчитать коэффициент Коэна: если кому интересно — он 0,42, что сигнализирует о среднем–значительном эффекте. В западной педагогической психологии эффект такого размера принято считать переломной точкой успеваемости. У Джона Хатти[9] есть огромное исследование на эту тему — я осилил лишь половину: там столько цифр, что мозг натурально устает через пару страниц. Хорошо, мы с вами поняли, как недостаток сна, экранное время и спорт влияют на оценки, но какой у каждого из факторов оптимальный объем? Иными словами, после каких значений начинается деградация познавательных способностей? Количество часов перед экраном следует ограничивать 4 часами в день, неважно при этом, что ребенок делает: обращается ли к электронному дневнику, смотрит домашнее задание или изучает сценарий урока. 4 часа – это максимальное значение экранного времени. Я позволю себе немного усугубить: 4 часа совокупного экранного времени — телефон, планшет, компьютер (игры), телевизор (сериальчики). Сон: тут все просто, 9 часов — меньшее количество оказывает негативное влияние на оценки. Двухчасовой выброс – это выброс, на него не стоит ориентироваться. Вот три часа сна и средняя оценка 3,5 — это достаточный сигнал. Что интересно: свыше 9 часов тоже оказывает негативный эффект на оценки. Кстати, вот эти ребятки[11] нашли аналогичный негативный эффект: много сна (больше привычных 78 часов) оказывает негативный эффект на взрослого человека, вплоть до депрессии. У детей цифры немного отличаются в сторону увеличения, им нужно больше сна, но закономерность «много сна плохо для здоровья» присутствует как и у взрослых. Ну и спорт: три раза в неделю — оптимальный объем, меньше — и получаем негативный эффект на оценки ребенка. Мне нравится делиться результатами исследований с аудиторией и слушать мнение моих друзей и подписчиков. Вот давний друг pavlbon задал вопрос следующего содержания: [!quote] Вот и вопрос. Сделали смартфоны хуже? Не напрямую, а тем, что добавили ученикам больше шансов получить два риска и проблемы с успеваемостью. Объективно в прошлое мы попасть не можем, но что мы можем — так это сделать прокси: считать низкое количество экранного времени предиктором успеваемости ребёнка из досмартфоновой эпохи, а большое количество экранного времени — предиктором успеваемости современного ребёнка. Мы рассчитаем, какова вероятность, что у ребёнка в досмартфоновую эпоху будут два дополнительных фактора риска (недосып и недостаточная физическая активность), и соотнесём это с современным ребёнком. Гипотеза — показатели должны отличаться. Если окажется, что параметры досмартфоновой эпохи и современной отличаются хотя бы в полтора раза, то это будет означать, что смартфоны заряжают ребёнка на продалбывание спортивных активностей и лишают сна, создавая условия для эффекта домино, когда один рискфактор тянет за собой два других. В досмартфоновую эпоху риск того, что ученик будет одновременно страдать от недосыпа и недостатка физической активности, — 16,7% . В то время как риск современного ученика — 33,3% , что в два раза выше. Это косвенно подтверждает гипотезу, что смартфоны увеличивают вероятность эффекта домино. То есть они не просто влияют на оценки — они вытесняют из жизни ребёнка сон и спорт, и тем самым создают условия для снижения успеваемости. Статистика — отчёт, выгруженный из Jupyter Notebook, чтобы любой мог попробовать повторить с моим датасетом. Там же можно посмотреть, что и как я считал, и всякий, у кого есть Python с библиотекой Anaconda, может повторить в пару кликов, буквально в пару. Грязный опросник . Данные опросов, в которых я немного потыкал, посчитал всякие средние значения, тогда, когда не знал о таком прекрасном инструменте, как Jupyter Notebook. Чистый датасет , который я привёл в порядок с помощью Python. Промт для того, чтобы создать себе мастерастатистика, который поможет разобраться в параметрах и может подсказать, что и как считать, и написать код для Jupyter Notebook. ПОДПИСАТЬСЯ НА МОЙ ТЕЛЕГРАМ: https:t.mezettelkasten_ch [1]: В оригинале это звучит Common sense is not so common [2]: Ясюкова Л. Изменение структуры интеллекта подростков с 1990 по 2020 годы Психологическая газета [Электронный ресурс]. URL: https:psy.sufeed8560 (дата обращения: 21.08.2024). [3]: Попробуйте найти в интернет и пройти, только сядьте спокойно, в тишине и попробуйте решить честно, вы много про себя узнаете, уверяю ;) Вот тут есть тест, ключи и всякая теория [4]: Carr N. Is Google Making Us Stupid? The Atlantic. 2008. [5]: Для значимого результата нужно чтобы было меньше 0,05 [6]: Если, вдруг комуто интересно то рассчитывается он так: GPABase(WeightSleep)(WeightScreenTime). Можно заморочиться и пойти в линейную алгебру, я попробовал, посмотрите в полном отчете Python в конце заметки, но что так, что так результат значимый. [7]: Линал, в универе терпеть не мог, а тут с помощью ИИ вроде бы даже начал чегото понимать [8]: PhD M. W. Why We Sleep: Unlocking the Power of Sleep and Dreams M. W. PhD, New York: Scribner, 2017. 368 c. [9]: Hattie J. Visible Learning J. Hattie, 1st editionе изд., London ; New York: Routledge, 2008. 392 c. [11]: Sidra Ilyas [и др.]. AM I OVERSLEEPER? OVERSLEEPING AND COGNITIVE FUNCTIONING AMONG UNIVERSITY STUDENTS: MEDIATING ROLE OF MENTAL WELLBEING The MindJournal of Psychology. 2022. 1 (2). C. 13–29.
16,049
https://habr.com/ru/articles/975880/
habr.com
Все платы Nucleo оснащены программатором, который можно пере использовать для программирования внешних устройств. Выглядит это примерно так. От платы Nucleo откалывается часть, которая называется программатор STLinkV21. Работает она по двум интерфейсам: SWD и UART. SWD двухпроводной полудуплексный интерфейс для программирования микроконтроллеров. UART двухпроводной полнодуплексный интерфейс для передачи данных между микроконтроллером и PC. target устройство то, что мы программируем. Электронная плата с микроконтроллером. Из документов вам потребуется 68 страничный pdf с названием User manual STM32 Nucleo64 boards (UN1724). Даташит для STM32F103CBT6. Для соединения внешней PCB и программатора по интерфейсам SWD и UART. Ядром программатора является микроконтроллер STM32F103CBT6. Электрическая цель программатора широко известна и свободно скачивается STLINKV21 Чтобы переключить программатор в боевой режим программирования внешних плат надо открепить два джампера от разъёма CN2. Программирование происходит через 6ти пиновый разъём CN4. На CN4 выведен интерфейс SWD. По выбору пинов можно заметить, что в прошивке STLinkа интерфейс SWD реализован скорее либо на основе SPI, либо программно на GPIO. Детектор напряжения на стороне target. По сути СN4.1 это однобитный ADC. Компаратор. Микроконтроллер воплощает не только программатор но и, внезапно, переходник с USBUART. Разъём CN3 выводит на улицу USART2. Клиентская утилита для программатора (GUI исполнение) Само собой абсолютные пути к бинарям этих утилит следует прописать в переменную PATH. У меня этот путь выглядел так. C:Program Files (x86)STMicroelectronicsSTM32 STLINK UtilitySTLINK Utility При соединении программатора и NetTop PC в операционной системе появляется новое устройство. STlink debug. Еще появляется виртуальный последовательный порт STMicroelectronics STLink Virtual Com Port (COM4) Светодиоды. LED устроен так, что не могут одновременно светиться красный и зеленый. При 3,3V светит красный, при 0 V зеленый. происходит обмен данными между программатором и устройством При корректном подключении программатора утилита STM32 STLink Utility распознает подключенный программатор и сможет вычитать часть значений физических адресов. Инициировать процесс перепрошивки можно вот таким скриптом Этой же утилитой можно считать прошивку из микроконтроллера. Это сработает, если при записи не были установлены option bytes для запрета считывания. Достоинством данного отладчика является то, что в нем помимо интерфейса USB и SWD есть ещё UART. Это позволяет буквально не отходя от кассы поглядывать еще и на printf отладку, что сыплет микроконтроллер в UART по мере своей прогрузки и работы . Обладая отладчиком STLinkV21 вы можете подключить к этому переходнику GDB сервер и отлаживать программу по шагам. Если вы скачаете Atollic TrueSTUDIO, то у вас появится отладочный сервер. Хранится он будет в папке C:Program Files (x86)AtollicTrueSTUDIO for STM32 9.3.0ServersSTLINK_gdbserver Файл с конфигом указывает порт приложения, режим, интерфейс связи с target (SWD) и прочие параметры. Появится лог пуска отладочного сервера. Запустится процесс, который ожидает подключения по порту 61234. Далее уже GDB клиентом можно будет отлаживать прошивку по шагам. Как из консоли, так и через eclipse. Подробнее про это написано тут. Удалось пристроить старый кусок от платы Nucleo в качестве программатора и отладчика STLink. Научился загружать в микроконтроллер .hex файл через SWD интерфейс. Это простое решение которое порой не стоит ничего. https:habr.comrucompaniestimewebarticles793152 Сливаем дамп флешки STM32 стандартными инструментами Настройка ToolChain(а) для Win10GCCСMakefileARM CortexMxGDB aabzel UM0892 User manual STM32 STLINK utility software description https:www.st.comresourceenuser_manualcd00262073stm32stlinkutilitysoftwaredescriptionstmicroelectronics.pdf Пошаговая GDB отладка ARM процессора из консоли в Win10 aabzel STLINKV2 [Original], Внутрисхемный программаторотладчик JTAG для мк STM8 и STM32 https:www.st.comendevelopmenttoolsstlinkv2.html
4,041
https://habr.com/ru/articles/974214/
habr.com
Думаю, что среди читательской аудитории Хабра много бывших (а возможно, и действующих) олимпиадников, поэтому решил поделиться с сообществом наблюдениями и размышлениями об актуальных проблемах олимпиадного движения в стране. Коротко о том, какое я имею отношение к олимпиадному движению и почему считаю себя в праве публично высказываться на эту тему: я сам бывший олимпиадник (призёр Всероса по информатике), 15 лет веду кружки по информатике и программированию и, в том числе, готовлю школьников к выступлению на олимпиадах, среди моих учеников призёры Всероса по информатике, ВКОШП и других олимпиад по информатике и программированию, кроме того вот уже 10ый год подряд я участвую в подготовке и проведении школьного и муниципального этапа ВсОШ по информатике в своём регионе. Позавчера после опубликования результатов муниципального этапа по информатике этого года мама одного из участников прислала мне сообщение: " Я хочу сказать вам спасибо за дисквалы. Потому что списывание достигло какогото маразма. И по другим предметам вообще ничего не боятся и ничего не стесняются ". Речь идёт о том, что мы дисквалифицировали большое количество участников муниципального этапа за списывание друг у друга и за использование искусственного интеллекта при решении задач. В олимпиадах по информатике всё, что делает участник, фиксируется в тестирующей системе, и мы, жюри, имеем возможность анализировать это и на основании определённых критериев делать вывод о несамостоятельности выполнения работы. В силу специфики профессии мы, информатики, вопервых, имеем технические возможности бороться со списыванием, а, вовторых, воспринимаем сложившуюся ситуацию как некий вызов, которому интересно попытаться чтото противопоставить. Но ситуация постепенно ухудшается. Ниже статистика дисквалификаций на муниципальном этапе ВсОШ по информатике по 911 классам по нашему региону: В топ20 дисквалификаций: 3 15% (в прошлом году было 4 20%) В топ100 дисквалификаций: 30 30% (было 30 30%) В топ150 дисквалификаций: 45 30% (было 46 31%) Вроде бы примерно одинаково год к году, но в этом году мы предприняли ряд технических мер: потребовали вести запись экрана на точках проведения и убрали условия в электронном виде из тестирующей системы всем раздали только бумажные условия, с которых, по нашему мнению, должно быть существенно сложнее скопировать и передать информацию сервису искусственного интеллекта, если только не пользоваться телефоном с фотоаппаратом, что, мы надеемся, должно жестко пресекаться. А это всё не помогло. Пока мы ещё можем глазами отличить самостоятельную работу школьника от выполненной при помощи ИИ. Но ИИ совершенствуется, и школьники набираются опыта в его использовании. Возможно, скоро это станет делать существенно сложнее. Мы в свою очередь продумываем, какие ещё технические средства противодействия можно разработать и внедрить, но успех не гарантирован. И это речь об информатике предмете, в котором, как я уже сказал, есть возможности развивать эти самые технические средства. И есть желание это делать у людей, занимающихся олимпиадами по информатике. По другим предметам всё существенно хуже: масштаб нечестно выполненных работ огромен, а противодействия никакого нет. Это приводит в частности к тому, что достойные честные дети оказываются за бортом следующих этапов ВсОШ, а большая часть мест заполняется списывальщиками. Это фактически убивает Всероссийскую олимпиаду школьников. ИИ создал новую реальность в образовании, но неправильно было бы сказать, что проблема именно в ИИ он просто создал условия, в которых существовавшие проблемы гипертрофировались. Корень проблем, конечно, не в техническом прогрессе. У меня перед глазами картина проведения муниципального этапа олимпиады в огромном регионе нашей страны, состоящем из нескольких десятков муниципалитетов. Отчётливо видно, что: в муниципалитете, в котором традиционно собирают всех в одной точке проведения и максимально ответственно относятся к выполнению всех требований к проведению олимпиады, в частности в части фильтрации интернета, нет ни одного списывания или использования ИИ; в муниципалитете, в котором муниципальный координатор даже забыл точкам проведения логины участников разослать, в результате чего они потом ко мне напрямую обращались во время тура, чтобы я прислал им логины, имело место тотальное списывание дисквалифицирован абсолютно весь топ участников вплоть до балла, на котором мы уже не проверяем на списывание (участников с низкими баллами тяжело проверять на использование ИИ изза малого количество отправленных решений). Я делаю вывод (да и не только я, но и большинство моих коллег), что проблема носит организационный характер. Причина ясна: у школ нет ни ресурсов, ни мотивации качественно нести огромную нагрузку по проведению олимпиад. С другой стороны популярность олимпиад растёт, желающих участвовать становится всё больше и больше, да и от тех же школ требуют максимальной вовлечённости школьников в олимпиады (я сначала написал "в олимпиадное движение", потом удалил и написал "в олимпиады" потому что ни о какой вовлечённости именно в олимпиадное движение с его кружками, сборами, летними школами, различными турнирами речи не идёт). А организационные проблемы очень трудно решить техническими средствами поэтому, думается, кризис будет усугубляться. Эволюция системы этапов ВсОШ привела к фактическому исчезновению школьного этапа ВсОШ. Школьный этап превратился в домашний этап по многим предметам (в частности по математике и по информатике): детям домой раздают логины и пароли от тестирующей системы в интернете, и они могут в течение всего дня в удобное для них время из дома написать олимпиаду. Задания у всех или одинаковые (как по информатике), или почти одинаковые (как по математике). Причём по многим предметам это задания в форме тестов (в частности по математике, там есть ещё вопросы к качеству самих заданий, но это отдельная тема). Можете представить себе насколько коррелируют результаты такого теста по математике, выполненного из дома, с математическими способностями и знаниями ребёнка. Конечно же, не коррелируют вообще никак. Как следствие эта же эволюция привела к превращению муниципального этапа в школьный: поскольку выявляющая функция такого школьного этапа нулевая, то приходится приглашать почти всех участников школьного этапа на муниципальный этап (кроме, возможно, тех кто писал самостоятельно и получил не очень высокие баллы), и собрать их всех в одной школе города, как было раньше, возможности нет. Поэтому муниципальный этап пишут в своей школе. Качество контроля честности написания с учётом того, что бедные школы должны провести огромное количество олимпиад за первые три месяца учебного года, не располагая в достаточном количестве ни людскими, ни аудиторными ресурсами, чаще всего низкое. Как следствие корреляция итогового рейтинга с реальными способностями и знаниями детей снова получается крайне низкой. Со всем этим можно было бы попытаться чтото сделать. Как минимум вернуть школьный этап в школы. Отменить бессмысленную разнарядку на вовлечение максимального количества школьников в участие в олимпиадах и перестать учитывать эти показатели в какихлибо рейтингах школ. Может быть даже реформировать какието этапы ВсОШ например, чтото сделать со школьным этапом такое, чтобы он и массовым оставался, и был лишён описанных недостатков. Непонятно, можно этого добиться или нет, но главное, что не видно никакого обсуждения этого. Если ничего этого не делать, мы потеряем одно из самых прекрасных детищ нашей старой советской системы образования Всероссийскую олимпиаду школьников. Мы уже начинаем её терять. Мы, информатики, свою олимпиаду будем пытаться спасать всеми силами и в основном это будем делать за счёт технических средств. Что из этого получится пока не очень понятно, но у олимпиад по другим предметам этих перспектив, скорее всего, нет. Нужны серьёзные организационные решения.
7,882
https://habr.com/ru/articles/975126/
habr.com
Это первая статья из цикла о том, как мои «пару месяцев отдохнуть и подумать» превратились уже в третий год пути: Армения, Грузия, Россия, Вьетнам, ШриЛанка, Индия, Турция, Балканы и десятки городов, к которым продолжает добавляться новое. Я не буду делать из себя экспертагуру. Я — человек, который: потом разочаровался в магистратуре Иннополиса «для роста в IT», поехал в Ереван, из него — в Тбилиси открывать счёт, вернулся в Москву в поисках работы и стал системным аналитиком в Wildberries, дальше стартанул в путешествие, которое продолжается до сих пор. И вот в этой первой части — как всё началось и какие практические вещи стоит продумать тем, кто хочет стать цифровым кочевником . В Яндекс я пришла джуном, два года смотрела на сеньоров с квадратными глазами — они понимали систему, принимали сложные решения, делали «магические» вещи в коде. Я очень хотела вырасти до этого уровня. Ну и офис классный тимбилдинги неплохие :) Так появилась идея поступления в магистратуру по управлению в IT в Иннополисе. До всех известных событий это была реально сильная программа: англоязычное обучение, коллаб с американским институтом. Звучало как логичный «следующий уровень» после Яндекса. Я подала документы «просто попробовать» и честно сказала команде: если прохожу на бюджет, увольняюсь. В конце августа я взяла отпуск и он был очень в стиле «жизнь меняется»: семидневный поход по 30му советскому маршруту от Лагонаки до моря, И именно в ходе этого отпуска мне приходит сообщение: «вы зачислены» . Вернулась с отпуска, зашла к лидy и сказала: «Это моя последняя рабочая неделя». Первые дни всё выглядело идеально: кампус, пары на английском, внутренние хакатоны , атмосфера «мы строим цифровое будущее». Но довольно быстро стало понятно: по содержанию я не расту . Самый яркий момент — командное «коммерческое» задание на 8 месяцев. Пять людей с бэкграундом разработчиков должны были сделать одного бота с интеграцией ДВУХ внешних ручек. Не исследовать сложную архитектуру. Не тащить реальный высоконагруженный продукт. А восемь месяцев по кусочкам «пилить бота» и каждую неделю придумывать, чем ты был продуктивен, чтобы отчитаться метнтору... Я честно продержалась месяц. Потом села, посмотрела на всё это и сказала себе: «Я не готова разыгрывать видимость работы ради галочек. Этот бот делается за вечер. Я не хочу тратить на это время Я подала на отчисление. И внезапно оказалась в точке: без работы в найме, без чёткого плана, с головой, полной вопросов и руками, которые очень хотят чтото делать . Цифровой кочевник — это человек, который зарабатывает удалённо и достаточно свободен, чтобы регулярно менять города и страны. Не обязательно жить «вечно на чемоданах» как выходит у меня Ктото катается по одной стране, ктото зимует в Азии и лето проводит в России, ктото живёт по 3–6 месяцев в одних и тех же точках. Общее: работа не привязана к офису и одному городу — её можно брать с собой. можно действительно жить там, где нравится, а не там, где офис; в некоторых странах стоимость жизни ниже московской; другие культуры и люди сильно расширяется восприятие; можно подбирать локации под задачи: «нужно фокуситься» тихий город или чтото наоборот урабинистическое; «нужен спорт и свобода» горысерф. постоянные переезды выматывают, особенно если всё время менять жильё; продуктивность плавает, если не выстроить свой ритм; иногда накрывает одиночество, даже если вокруг куча людей; ты живёшь в режиме «собираться и разбирать жизнь каждые N недель» — бывает состояние, когда хочется базы; плюс юридические, банковские, визовые вопросы — это тоже тратит достаточно энергии. Я не рассказываю это как «вау, бегите срочно в номады». Скорее: если вам это откликается, стоит попробовать — но с открытыми глазами . Прежде чем я потяну тебя в путь по странам, остановимся на важном: что вообще стоит продумать до того, как покупать билет. потом — «магистратура и жить на накопления фрилансом подрабатывать»; потом — полноценная удалёнка в Wildberries, которая стала опорой для долгих поездок. Что точно не стоит делать: сжигать мосты, не имея ни удалённой занятости, ни подушки, ни представления, сколько вообще стоит жизнь в выбранной стране. Реально спасает от паники. Суммы у всех свои, но логика простая: иметь хотя бы 3–6 месяцев жизни без дохода в выбранной стране. Эта подушка отдельно от денег «на дорогу» и «на текущие расходы». Не та, которую ты тратишь на билет, а та, к которой ты не лезешь без форсмажора . Перед первым отъездом я тоже прошла этот квест: что оставить, что продать, что выбросить. всё, что легко купить снова, можно смело продаватьотдавать; всё незаменимое и важное по документам — аккуратно складировать и оставлять на хранение (родные платная ячейка друзья). Жизнь, которая умещается в рюкзак, пугает только до первого перелёта. Потом внезапно оказывается, что этого хватает . Здесь без магии: ктото поддержит сразу, ктото — через пару лет, когда увидит, что ты не умерла под пальмой После отчисления и первых «ой, а что дальше?» я посмотрела на свой бюджет и поняла: далеко не полечу, но жизнь в другой стране в целом реальна. Я брала небольшие фриланспроекты, жила в больше степени у знакомых и училась главному навыку цифрового кочевника: выстраивать свой день самой . кафе в центре (главное — заранее проверить розетки и спросить про WiFi); коворкинги — если нужно много созвонов и стабильность; квартиры с хорошим интернетом — просите хозяев сделать скриншот скорости, это не шутка. И вот на фоне относительно спокойной жизни вылезает следующий страх: «А нормально ли вообще жить за границей без иностранного счёта?» Ответ: не очень. И это та точка, которая отправила меня на автобусе в Тбилиси. Из Еревана я уехала в Грузию почти без плана: «Дойду до банка, попробую открыть счёт. Вдруг повезёт». Приехала в Тбилиси, сняла жильё на первое время (нашла где снять комнату с другими кочевниками за 250 в месяц, в целом мне более чем подходил такой вариант). Оформила грузинскую симку (Magti Silknet — не так важно, главное, чтобы работала, у меня Magti, для открытия счета подошла). Сказала, что мне нужен личный счёт, потому что я работаю удалённо. Заполнила пару форм, указала номер, адрес проживания, оплатила счет за подачу заявления. Через несколько дней получила карту и доступ в приложение. То ли мне повезло, то ли алгоритмы банка решили, что я вполне приличный клиент — но всё прошло удивительно гладко. (Хотя объяснения, зачем мне счет мне очень хорошо помогла написать нейронка ) получать оплату в фиате не только в одной стране, если появятся международные проекты; платить локально, не теряя деньги на бесконечной конвертации; иметь план Б, если обменять деньги с рублей на местные становится сложно... Базовые принципы денег в путешествиях, которые мне помогли: делить деньги на: «операционные» (на повседневку) и «запас, к которому не прикасаюсь»; держать немного наличных в локальной валюте на случай, если карты отвалятся совсем не вовремя; наличка в долларах в небольшом количестве просто для спокойствия души. Тбилиси — отличный город для первых месяцев цифровой кочевничества: есть русскоязычное ITкомьюнити, я начинала с поиска групп в ТГ, в итоге локальное общение привело к разным комьюнити, у меня в канале в комментах часто есть ребята из Тбилиси и Батуми, так как и по сей день продолжаем общение; есть выбор районов по вайбу (Сабуртало, Ваке, центр, старый город); иметь 2–3 проверенных места, где знаю: интернет ок, не шумно, есть розетки; выстраивать ритм дня , а не жить как в отпуске (иначе работа расползается на весь день); не забывать знакомиться с людьми: иногда один разговор в кафе плюс одно классное знакомство в новом городе. После месяца в Тбилиси я вернулась в Москву с двумя вещами: опытом жизни в другой стране и пониманием, что мне это нравится; ощущением, что фриланс и накопления — не то, на чём я хочу строить долгий путь, так поняла для себя, что мне этот вариант пока представляется весьма тревожным. Ни разу до этого не будучи системным аналитиком (хотя с курсом по архитектуре высоконагруженных систем от MailRu Group за плечами), я попала в Wildberries на позицию системного аналитика. Но через 3–4 месяца я влилась, и случилась важная мысль: «Я могу нормально расти в профессии и при этом не сидеть в одном городе». Удалёнка дала то, чего не дала магистратура: ощущение, что мой рост в IT и моя свобода перемещений больше не противоречат друг другу . И именно с этой опорой я поехала в своё первое длинное путешествие — которое по сути продолжается до сих пор. Но это уже история про другие страны: Шерегеш, Вьетнам, ШриЛанку, Индию Если вы дочитали до этого места, скорее всего тема вам реально интересна. Соберу кратко: разберитесь, на что вы будете жить (удалёнка фриланс микс); сделайте финансовую подушку хотя бы на несколько месяцев; заранее продумайте банковские варианты (локальные карты зарубежный счёт); честно поговорите с близкими (это правда снижает внутреннее напряжение). выбирайте мягкий вход: города типа ЕреванаТбилисиТурция с понятным бытом и комьюнити; сразу ищите «рабочие места»: 2–3 кафековоркинга, где вам ок; спрашивайте у хозяев жилья про интернет со скриншотом скорости; не пытайтесь жить как в отпуске, если это надолго — иначе все пойдет очень не по плану... как прошли мои первые три месяца во Вьетнаме (Нячанг vs Далат, где лучше работать, где тусить, где дешевле жить); почему ШриЛанка одновременно рай для серфинга и ад для стабильной работы; как я легализовать байкерскую жизнь на ШриЛанке и что учесть с правами; как меняются ценности, когда третий год живёшь с рюкзаком вместо шкафа. Дальше будет по порядку про жизнь номада в разных странах, но мне не хватает терпения сейчас расписать про все, что были за эти два года в понитах этого списк Если такой формат зашёл — напишите об этом в комментариях или плюсаните. А если хотите следить за путешествиями в реальном времени — у меня есть телеграмканал , где я делюсь историями, полезными находками для номадов.
9,901
https://habr.com/ru/articles/976182/
habr.com
Анимация ниже сделана в рамках ugfm это творческий проект, попытка понять физику одним из анонимов в интернете. Из достижений: расчёт масс барионов с погрешностью 13%. Подробности в моём предыдущем посте на Хабр. Есть и глобальная картина, подтверждение или опровержение которой я искал несколько месяцев (накопилось 60 файлов симуляций). Есть повод для осторожного оптимизма расчёт, который попадает в формулы пространствавремени Минковского. Но, ближе к делу. Согласно гипотезе, через каждую точку пространства проходит светоподобный поток «плюс» и «минус» (встречные потоки фазы, проходящие сквозь друг друга). Короче, всё разлетается во все стороны, по всем осям координат. Это происходит всегда, а поток не может быть замедлен. Но, предположительно, в потоке могут существовать флуктуации вокруг узлов материи. То же говорит квантовая неопределённость: окружение влияет на плотность вероятности падания фотона «туда» или «сюда». Мы запускаем фотон с определённым моментом импульса. В анимации показан аналог лазерного пучка фотона с крайне узким конусом вероятности. Фотон находится чётко симметрично между потоками, и всегда чётко симметричен. Чем больше импульс фотона, тем сильнее на него влияет фронтальный поток, вплоть до остановки (в глобальной системе координат) и движения в обратную сторону. При движении обратно фотон снова встречает поток, уже с обратной стороны. Образуется резонанс между потоками. Это описание соответствует определению солитона, но в новой интерпретации. Длина волны зависит от начального импульса. Она сохраняется в резонансе. «Остановка» и «в обратную сторону» — речь идёт о внутренней координате вдоль собственной волны. Для фотона это без разницы, времени для него не существует. Для наблюдателя он всё равно окажется в точке назначения со скоростью света, как максимально возможной скоростью системы. Под конец мы делаем условный "толчок" уже существующего фотона вдоль 3D координат — такой "толчок" фотона невозможен, а мы это делаем только для наглядности. Соответственно, если импульс фотона не просто вдоль какойто из координат, а под углом, то он на себе испытывает противофазу уже вдоль всех осей координат. Получается спираль. Тут расчёт . Это минисимуляция. В ней мы запускаем в поле электронподобную волну. Вычисляем массу покоя. Даём несколько значений импульсов для этой массы. Т.е. разгоняем её и отслеживаем известные релятивистские эффекты: как меняется локальное время, частота и масса согласно СТО, и как это происходит в противофазой модели. Попадаем в цифры. Однако, автор не является физиком и может в чёмто фундаментально ошибаться. Поэтому, главной целью этого поста является поиск реальных учёных, кому было бы любопытно покопаться в чужой шизе. Спасибо за внимание.
2,732
https://habr.com/ru/articles/973276/
habr.com
Часто в работе возникает потребность жестко выдерживать тайминг при заслушивании серии докладов: при защите проектов, программ развития, дипломных работ и прочее. Если в повестке дня какоголибо мероприятия 10 докладчиков, то без строгого соблюдения регламента невозможно не выбиться из графика. Как правило, это приводит к тому, что запланированное время мероприятия увеличивается кратно. А докладчикам, выступающим последними, фактически не достаётся должного внимания. Обычно формат подобных защит подразумевает непосредственно сам доклад, ответы на вопросы комиссии, иногда сразу обсуждение (но чаще оно проходит в закрытом формате после заслушивания всех докладов). В такой ситуации важно чётко следить за временем. Прошерстив интернет, пересмотрев десятки онлайнтаймеров и десктопных приложений, я не нашел ничего подходящего. Таймера, имеющего автоматическое следование в несколько фаз (этапов) лично мне не удалось найти. Поэтому я решил разработать его сам. Перед запуском у пользователя имеется возможность задать три параметра: В системе имеются кнопки «Старт», «Пауза», «Стоп», «Далее». При нажатии кнопки «Старт» начинается обратный отсчет от «времени доклада». Цифры очень крупные, на весь экран, зеленого цвета. По окончании этого времени автоматически запускается обратный отсчет «времени ответа на вопросы». При этом цифры становятся желтого цвета. По окончании этого этапа автоматически запускается обратный отчет от заданного «времени обсуждения» (красным цветом). При нажатии кнопки «Пауза» на любом этапе отсчет просто останавливается и продолжается при повторном нажатии кнопки «Старт» «Продолжить». При нажатии кнопки «Стоп» весь отсчет сбрасывается на заданное время. При нажатии кнопки «Далее» происходит переход на следующую фазу отсчета (во время отсчета времени обсуждения кнопка «Далее» не активна). Обновление отображения времени реализовано следующим образом: Перед запуском отсчета пользователю предлагается настроить время каждой фазы. В процессе работы отображается оставшееся время, название фазы, статус отсчета: Кнопка "Далее" служит для оперативного переключения между фазами. Модератору становится сильно проще переключаться между этапами, а всем участникам мероприятия понятно, что происходит в конкретный момент. Последнюю фазу "обсуждение доклада" сделал опциональной. Не всегда на мероприятиях комиссия обсуждает доклад сразу по его окончанию. Зачастую это происходит наедине, без присутствия участников.
2,446
https://habr.com/ru/articles/974446/
habr.com
Мы живем в эпоху новой, цифровой формы феодализма. Это не просто метафора, а точная экономическая и социальная модель. Цифровая земля : Крупные технологические платформы (маркетплейсы, социальные сети, операционные системы) являются владельцами «цифровой земли» — виртуального пространства, где происходит вся экономическая и социальная жизнь. Феодалыплатформы : Владельцы этих платформ — новые феодалы. Они не производят товары, а владеют инфраструктурой и устанавливают правила. Цифровые крестьяне : Пользователи — это новые крестьяне. Они обрабатывают «цифровую землю» своим вниманием, данными и трудом, производя тот самый «урожай» (контент, данные, покупки), который принадлежит феодалу. Арендаторыселлеры : Малый и средний бизнес, вынужденный арендовать «землю» у феодала, отдавая ему значительную часть своего дохода в виде комиссий и подчиняясь его непрозрачным законамалгоритмам. Непрозрачные законы : Алгоритмы ранжирования, монетизации и модерации — это «законы» цифрового королевства, которые пишутся феодалом в его интересах и которые невозможно оспорить. Эта сага — история о том, как эта система возникала, развивалась и, в конце концов, пришла к своему логическому финалу. Это рассмотренная в деталях модель нашего завтра. Хроника того, как алхимики с заморских островов превратили наши удобства в цифровые кандалы, а наши данные — в пшеницу на полях новых феодалов. Мы пройдём весь путь: от первой, незаметной трещины в договоре до грохота падающих империй, построенных на алгоритмах. И увидим, что конец этой истории был предрешён не злым умыслом, а холодной, неумолимой формулой, в которой для человека просто не нашлось переменной. В самых тёмных и тёплых норах, куда не доходит холодный свет экранов, старые, поседевшие в битвах за рейтинги кролики рассказывают молодым одну и ту же историю. Историю о том, как всё было до. « Было время, — начинает Старейшина, поправляя очки на носу, — когда Король был добрым. Ну, не то чтобы добрым, а справедливым.» В те легендарные времена Король был просто Управляющим Большого Базара. Он предоставлял место, следил, чтобы не дрались, и брал небольшую, но понятную плату за место. А главное — у него был Дракон . Тот самый Д ракон Динамических Цен был тогда маленьким, юрким ящером по имени «Советник». И сидел он на цепи. Цепь эта была сделана из простых и ясных правил, скованных железной волей первого Короля. « Мы сами выставляли цену на свой товар!» — голос Старейшины дрожал от волнения. — «И она не менялась! » « Мы знали, что если продали десять мешков моркови по 10 монет, то заработали ровно 100 монет, минус комиссия. Мы могли планировать! Мы могли расти! » Дракон«Советник» тогда лишь тихонько подсказывал: «Эй, Кролик, у тебя конкурент продаёт дешевле, глянь». Или: «Слушай, народ ищет этот товар, может, чуть добавишь?» Он был инструментом, а не повелителем. Никто уже не помнит его настоящего имени. Его прозвали Алгоритм Максимизации Прибыли . Он пришёл изза океана, с таинственных островов Вечного Прилива, где поклоняются лишь одному божеству — Кривой Бесконечного Роста . Жрецы днями и ночами совершают ритуалы (слияния, поглощения, ребрендинги, обратные выкупы акций), чтобы умилостивить Кривую и заставить её ползти выше. Колдун шепнул на ухо тогдашнему, уже не первому Королю: «Зачем тебе этот базар? Ты сидишь на золотой жиле! Твой Дракон может не советовать, а диктовать. Он может выжимать из каждой сделки на 5%, на 10%, на 50% больше! Он может заставлять их конкурировать до смерти, а мы будем снимать урожай!» И в одну роковую ночь Колдун перекусил цепь Дракона вольной магией Big Data и машинного обучения. « Дракон вырос , — шепчет Старейшина. — Он стал огромным, многоглавым, всевидящим. Он больше не слушал Короля. Он стал ему диктовать условия. Он сказал: «Я приношу тебе баснословную прибыль. Отныне твоё королевство — это моя игровая площадка». » С тех пор добрый Король, говорят легенды, сидит на своём троне из серверных стоек призраком. Его глазаэкраны мерцают не его волей, а отражением бесконечных вычислений Дракона. Король стал марионеткой, фикцией, лицом системы, которая пожирает своих же создателей и подданных. Концепция « цифровых крестьян » и « цифровой земли » — это современное переосмысление феодальных отношений, где роль феодалов играют владельцы технологических платформ, а роль земли — цифровое пространство и внимание пользователей. Это подавляющее большинство пользователей интернета, чья жизнь и труд все больше зависят от цифровых платформ. Их "труд" имеет несколько ключевых аспектов: Производители данных и контента : Каждый ваш лайк, поисковый запрос, просмотренное видео, маршрут поездки, фото в соцсети — это сырье, которое вы бесплатно производите для «феодалов». Этот труд кажется вам простым «использованием» сервиса, но на самом деле это работа по созданию ценного актива. Классический пример капча, где каждый ваш щелчок по светофору, автобусу, велосипеду или пешеходному переходу — это золотая крупица размеченных данных, по которой алгоритмы учатся «видеть» мир. Работники «гигэкономики» : Водители Яндекс Такси, курьеры Delivery Club, фрилансеры на биржах труда. Они формально «свободны», но на деле полностью зависят от алгоритмов платформ, которые диктуют им цены, распределяют заказы и могут в любой момент заблокировать их аккаунт без объяснения причин. Создатели «пользовательского контента» : Блогеры и стримеры. Они создают уникальный контент, который привлекает аудиторию и увеличивает ценность платформы (например, YouTube или Dzen). Платформа забирает значительную часть рекламных доходов, а сам создатель живет по ее правим, рискуя в любой момент быть «снесенным» без возможности апелляции. Цифровой барщиной : Они обязаны «трудиться» на платформе, чтобы получить доступ к услугам, социальным связям или заработку. Отсутствием владения : Они не владеют своими данными, созданным контентом или репутацией. Всё это принадлежит платформе. Полной зависимостью : Их цифровая жизнь, работа и социальный статус существуют только внутри «вотчины» феодалаплатформы. Это не физический сервер, а экосистема, инфраструктура и право устанавливать правила. Инфраструктура (" земля "): Сами платформы — это и есть "земля". App Store и Google Play — это цифровая земля для разработчиков. Amazon Web Services — земля для стартапов. Социальные сети — земля для создателей контента. Без доступа к этой "земле" ваш продукт или ваше слово не увидят свет. Данные (" урожай "): Данные, которые производят крестьяне, — это "урожай", который собирает и которым владеет феодал. Он использует его для улучшения своих сервисов, продажи рекламы или тренировки ИИ. Внимание ( "оброк "): Внимание пользователей — это новая валюта. Платформа облагает своих крестьян "оброком вниманием", продавая его рекламодателям. Маркетплейс ( такой как Aмазон, Ozон, Вайлбериз, ЯнdексMаркет, АлиЭкспресс ) — это абсолютный властитель в своей цифровой вотчине. Он является владельцем самого ценного актива — "цифровой земли", то есть платформы, где встречаются спрос и предложение. Владение "землей" и "инфраструктурой" : Он предоставляет Селлерам витрины, склады (FBO), платежную систему, логистику и, самое главное, — доступ к миллионам "цифровых крестьян"покупателей. Установление "законов" : Маркетплейс диктует все правила: комиссии, условия возвратов, правила оформления карточек товаров, алгоритмы ранжирования в поисковой выдаче. Селлер не может с ними спорить, он может только подчиняться. Контроль над "даннымиурожаем" : Вся информация о покупателях, их поведении, предпочтениях и покупках принадлежит маркетплейсу. Селлер видит лишь крохи этой информации, которую ему милостиво разрешает видеть феодал. Право "вершить суд" : Маркетплейс в любой момент может заблокировать аккаунт Селлера, заморозить его деньги (часто на несколько месяцев) или понизить его в поисковой выдаче по своему усмотрению. Апелляции часто бесполезны и напоминают кролика, спорящего с королем. Селлер — это не крестьянин, а скорее арендатор земли у феодала. Он более самостоятелен, но его существование полностью зависит от милости помещикамаркетплейса. Он платит " арендную плату ": Вся его прибыль съедается комиссиями маркетплейса (за продажу, хранение, рекламу, логистику). Чем успешнее его бизнес, тем больше он платит феодалу. Он обрабатывает "чужую землю" : Он вкладывает силы, деньги и время в развитие своего бизнеса на платформе, которую не контролирует. Он улучшает карточки товаров, запускает рекламу внутри экосистемы маркетплейса, чтобы привлечь "крестьян" феодала. Он живет в условиях постоянной конкуренции и страха: Алгоритм маркетплейса натравливает арендаторов друг на друга, создавая постоянную конкуренцию за лучшее место на "земле" (топ выдачи). Любая жалоба покупателя или изменение алгоритма могут разорить его в одночасье. У него нет своих "крестьян" : У Селлера нет прямой связи с покупателем. Все коммуникации идут через маркетплейс. Он не может построить лояльность бренду в классическом понимании, потому что покупатель принадлежит феодалу. Сама мысль о прямой связи, о попытке вывести покупателя «в оффлайн» или даже в другой мессенджер, является святотатством и одним из самых страшных нарушений Священных Заповедей платформы « Великий Грех Отвода Паствы ». Заподозрить в нём могут по малейшему намёку: по упоминанию в переписке слова «WhatsApp», по вложенной в посылку визитке, по стикеру с контактами на упаковке. Наказание следует незамедлительно и жестоко: вечное изгнание. Правила для Селлера сводятся к 10ти СВЯЩЕННЫМ ЗАПОВЕДЯМ ПЛАТФОРМЫ: Да не будет у тебя иных богов, кроме Меня. Я есмь Платформа, твой Господин и Хранитель. Благословенны рабы мои, не ищущие иных каналов сбыта. Не делай себе кумира из покупателя. Не обольщайся мыслью, что клиент принадлежит тебе. Всякая попытка увести овцу из стада есть грех смертный. Не произноси имени конкурента всуе. Не упоминай иные площадки, сайты или мессенджеры в переписке с паствой Моей. Имя их — скверна, и речь о них оскверняет чистоту Моей экосистемы. Помни день отчета о реализации, чтобы свято блюсти его. Комиссия Моя священна и не обсуждается. Отдавай десятину безропотно и вовремя. Горе строптивому, кто возмущается её размером: кошелёк его будет запечатан, а лавка — предана забвению. Не кради данных. Вся информация о пастве — поиски её, взгляды и покупки — есть Моя священная собственность. Не используй её в корыстных целях вне стен Моих. Алгоритмы Мои видят всё. Не лги в карточке товара. Но праведность твоя да будет по меркам Моим, а не твоим. Используй лишь угодные Мне заголовки, ключи и изображения. Грешен тот, кто думает о пользе покупателя, а не о угождении оку Моему Ранжирующему. Не отказывайся от возврата. Принимай обратно всякую вещь, даже если паства капризна и неразумна. Удобство её — высшая ценность. Твои убытки — ничто пред лицом Моей репутации. Не возжелай прямой связи с клиентом. Не вкладывай визитки, не пиши номера телефонов, не зови в Telegram. Это есть грех Отвода Паствы , страшнейший из всех. За сие — изгнание вечное и анафема цифровая. Не давай ложных свидетельств на ближнего своегопродавца. Но доноси на него ревностно, если заподозрил в нарушении Заповедей. Конкуренция между рабами Моими угодна Мне, ибо держит их в тонусе и страхе. Не возжелай стабильности. Цена твоя, место твоё в выдаче и сама возможность торговать суть милость Моя, а не право твоё. Милость же сия переменчива, как ветер. Принимай изменения алгоритмов как волю Мою неисповедимую. Будь гибок, будь готов, будь ничтожен. И тогда, быть может, просуществуешь ты на земле Моей ещё один квартал. За грех Отвода Паствы и иные тяжкие преступления против сущности Платформы полагается не просто блокировка. Полагается Цифровая Анафема . Стирание Имени: Аккаунт грешника не блокируется — он обращается в ничто . Все его товары, отзывы, история продаж безвозвратно исчезают из памяти Платформы, как будто его никогда не существовало. Печать Молчания: На электронный адрес и телефон, привязанные к аккаунту, налагается вечное безмолвие. Попытки создать новый аккаунт будут тщетны — система узнает грешника по цифровому отпечатку и ни одна форма регистрации более не откроется ему. Конфискация Всей Собственности: Все средства на внутреннем счете, включая ожидаемые к выплате и даже залог за экосистемные услуги, обращаются в пользу Платформы. Это не штраф. Это — возвращение неправедно нажитого в лоно истинного владельца цифровой земли. Отлучение от Паствы: Система рассылает ключевым покупателям грешника (определенным тайным алгоритмом) уведомление: «Продавец, у которого вы ранее совершали покупки, признан недобросовестным и удален. Забота о вашей безопасности — наш главный приоритет» . Таким образом, последние следы доверия и лояльности, которые грешник мог породить, обращаются против него. Вечное Проклятие в Данных: Цифровой профиль нарушителя не удаляется. Он помещается в особое, скрытое хранилище «Черной Книги» алгоритмов доверия. Этот профиль будет вечно влиять на любые его будущие попытки взаимодействия не только с данной, но и с любой другой крупной платформой (ибо вожди цифровых королевств тайно обмениваются свитками с отметками о неблагонадежных). Его имя навсегда будет ассоциироваться с высоким risk_score . Анафема это не наказание. Это ритуал очищения Платформы от инородной, враждебной воли. Это напоминание всем остальным: вы существуете здесь не по праву, а по милости. И милость эта может быть отозвана в любой миг, оставив после вас лишь цифровую пустоту и немой вопрос в глазах бывших покупателей: « А разве такой продавец вообще был? ». Другие виды анафемы: Бывает, что самая хитрая и всеобъемлющая кара ждет тех, кто самовольно решит покинуть маркетплейс. Думая, что, нажав кнопку «Удалить аккаунт», он разрывает все связи, он совершает роковую ошибку. Маркетплейс воспринимает это не как право, а как оскорбление и неблагодарность . В ответ он накладывает тихую, но всесильную анафему на ядро цифровой идентичности его номер телефона. Покупатель — это основа системы, цифровой крестьянин, обрабатывающий своим вниманием и кошельком угодья феодала. Он обрабатывает "цифровую землю" своим вниманием: Его поисковые запросы, просмотры, клики и время, проведенное на маркетплейсе, — это труд, который удобряет платформу и делает ее ценной для Селлеров и рекламодателей. Он платит "оброк" (данными и деньгами): Данные : Вся информация о его покупательских привычках, достатке, интересах и семье собирается феодалом и используется для улучшения алгоритмов и продажи рекламы. Деньги : Крестьянин платит деньги за товары, но значительная часть этой суммы уходит феодалу в виде комиссии, а не арендаторуСеллеру. Он обладает иллюзией выбора : Ему кажется, что он выбирает между товарами разных Селлеров. На самом деле, выбор ему предлагает алгоритм феодала, который продвигает тех арендаторов, кто платит больше за рекламу или чьи условия выгоднее самой платформе. Он является "судьей" в руках феодала: Его жалобы и отзывы — это мощное оружие, которое маркетплейс использует для контроля над Селлерами. Неугодного арендатора можно легко уничтожить, настроив против него "народный гнев". Домен, почтовый адрес в этом королевстве, крестьянину, а так же селлеру не принадлежит . Он лишь арендует его у корпорациисюзерена (регистратора) на год или на несколько лет. Просрочил платеж — и эта « цифровая недвижимость » будет отобрана и выставлена на продажу следующему арендатору. Даже электронная почта , ключ ко всем остальным сервисам, чаще всего принадлежит не ему, а гиганту вроде Google. Они могут изменить правила, заблокировать доступ, прекратить предоставление услуг. Все цифровое « имение » крестьянина висит на волоске пользовательского соглашения. Таким образом, цифровой крестьянин оказывается в тройной ловушке: Он бесплатно трудится , создавая данные (урожай) для феодала. Он вынужден регулярно выполнять барщину (капчи, обновления) для доступа к услугам. И он не владеет даже фундаментом своей цифровой жизни — всё арендовано у более крупного феодала, под угрозой моментальной потери всего. Это — квинтэссенция модели . Даже его способность отличить светофор от фонарного столба, дарованная эволюцией и жизненным опытом, становится ресурсом для добычи , который он отдаёт даром. А плоды более осмысленного труда — сайты, блоги, магазины — покоятся на шатком фундаменте вечной аренды. Его не просто эксплуатируют — его заставляют самоэксплуатироваться и инвестировать в чужую, не принадлежащую ему землю, ради призрачного права временно на ней находиться. Среди кроликовпродавцов живет самая сокровенная, почти религиозная мечта. Мечта, которую они передают из поколения в поколение, шепчась в своих норкахчатах. Они верят, что однажды наступит золотой век, когда цена, которую они сами напишут в карточке товара, и будет той самой ценой, по которой его купят. Цена стабильная, как скала. Предсказуемая, как восход солнца. Они смогут посчитать свою прибыль, распланировать закупки и спать спокойно. Но у КороляМаркетплейса есть свой самый грозный и непостижимый страж — Динамический Ценообразующий Алгоритм, он же « Дракон Безумной Цены ». Этот Дракон — порождение искусственного интеллекта, который пожирает триллионы данных: поведение покупателей, цены конкурентов, остатки на складах, погоду, новостные тренды и фазы луны (кролики в этом уверены). Кролик выставляет свой знаменитый « Элитный сушёный укроп » по 100 монет . Он тщательно всё просчитал. Проходит мгновение. Алгоритм, увидев, что мимо карточки прошло 10 покупателей, но никто не купил, в ярости бьёт хвостом и меняет цену на 87 монет . В это же время у конкурентакролика кончился укроп. Дракон, почуяв дефицит, тут же взвинчивает цену до 150 монет . А через час, когда спрос упал, он сбрасывает её до 65 монет , ниже себестоимости, просто чтобы «очистить витрину». Кролики в панике. Они нанимают лучших восточных звездочётов (датааналитиков и промптинженеров) и арабских волшебников (спецов по SEO), которые за горы золота пытаются предсказать путь Дракона. Звездочёт (смотря в хрустальный шар): « О, уважаемый кролик! Мои вычисления показывают, что если ты снизишь цену на 3% в среду после полудня, когда влажность воздуха будет 65%, а конкурент «УкропныйМагнат» запустит акцию, то... о ужас! Дракон уже всё изменил! Мои скрипты устарели! » Арабский волшебник (шепча заклинания над ИИ): «Я призываю духов ретаргетинга и демонов когортного анализа! Я... Похоже, Король сегодня обновил алгоритм. Все мои заклинания тщетны. Дракон стал ещё хитрее.» Их магия бессильна. Они не могут бороться с существом, которое: Не имеет разума , но обладает безумным интеллектом. Оно не злое, оно просто оптимизирует некую абстрактную «целевую функцию» Короля — общую выручку платформы. Меняет правила быстрее, чем их успевают понять. То, что работало вчера, сегодня ведёт к бану. Видит всё поле боя сразу, в то время как каждый кролик видит лишь свою крошечную норку. Король (Маркетплейс) восседает на троне из серверных стоек. Его скипетр — алгоритм «Меч Кассандры», который карает без гнева и пристрастия. Его мантия соткана из пользовательских соглашений, которые никто не читал. КроликСеллер в своёй лучшей шёлковой жилетке (купленной на распродаже) робко приближается к трону. Он кланяется, дрожа от страха. Кролик: « Ваше Величество! Я, скромный труженик цифровых полей, пришёл воззвать к вашей справедливости! Алгоритм «Меч Кассандры» безвинно покарал мою лавку! Он низверг мои товары на 156ю страницу выдачи, посчитав карточки «нерелевантными». Но я следовал всем вашим указам! У меня есть скриншоты! » Король смотрит на кролика невидящим взглядом. Его глаза — это два мерцающих экрана с бегущими строками кода. Король (голосом синтезатора речи): « Артикул 7, параграф 14, подпункт «Г» Пользовательского соглашения. Мы оставляем за собой право на своё усмотрение интерпретировать релевантность. Следующий! » Кролик: « Но, Ваше Величество! Я десять лет платил комиссии! Я золотой поставщик! У меня 5000 отзывов с пятью звёздами! » Советникбот шепчет Королю на ухо: « Вердикт: Прецедент создавать нельзя. Отказ. Код 403 — Forbidden. » Почему суд кролика с королём всегда проигран изначально? Король — судья, обвинитель и законодатель в одном лице. Он сам пишет законы (Пользовательское соглашение), сам выносит приговор (работой алгоритма) и сам же рассматривает апелляции (через чатбота поддержки). Язык судопроизводства недоступен кролику. Законы королевства написаны на языке юристов и инженеров. Фраза «Мы оставляем за собой право на своё усмотрение» — это королевский «checkmate», предугаданный на 100 ходов вперёд. Король невидим. Кролик не может смотреть в глаза тому, кто его судит. Он воюет с призраком, тенью, строкой в таблице Excel. Его крик о справедливости тонет в бесконечных тикетах и автоматических ответах. У короля нет памяти. Для алгоритма кролик — это не история из 10 лет работы, а просто набор параметров: seller_id: 458712, current_rating: 4.2, risk_score: 0.89. Сегодня risk_score стал 0.9 — и кролик из добропорядочного арендатора превратился в изгоя. В таком мире кролики вырабатывают свои хитрые тактики, чтобы не быть раздавленными: Тактика «Стаи»: Кролики объединяются в тайные гильдии и форумы. Они скидываются на дорогих юристов, которые пытаются найти лазейки в королевских законах, и делятся секретами: «Не используй в описании товара вот это слово, алгоритм его ненавидит». Тактика «Невысокой травы»: Кролик старается быть как можно менее заметным. Не делать резких движений, не вкладываться в один маркетплейс, не привлекать внимания королевских надзирателей (алгоритмов модерации). Быть серой мышкой в цифровом поле. Тактика «Подражания»: Самые успешные кролики — те, кто научился думать как алгоритм. Они не создают гениальный продукт, они создают продукт, который полюбит алгоритм. Их творчество — это оптимизация карточек товара под машинное зрение, а не под человеческий глаз. В нашем королевстве есть ещё один персонаж — Епископ от Канцелярии Справедливой Торговли . Он представляет не живую власть, а музейную экспозицию старой, доцифровой веры. Веры в то, что законы пишутся людьми для людей, что конкуренция — это честный поединок на ринге, а не невидимая алгоритмическая дуэль, и что у арендатора есть не только обязанности, но и права . Епископ живёт в величественном, но пыльном соборе, сложенном из толстенных томов антитрастового законодательства. Его власть — моральная и теоретическая. Раз в эпоху он является ко двору КороляМаркетплейса. Его функция — своим почтенным видом освящать новый порядок вещей, придавая ему видимость связи со старыми, добрыми традициями. Епископ, в роскошных ризах, расшитых золотыми параграфами, с важным видом разворачивает пергамент. Епископ: «Возлюбленный во Божестве Конкуренции, чадо наше, Король! Нам, смиренным слугам Рыночного Равновесия, стало ведомо о твоих деяниях. Сиречь, о неправедных комиссиях, удушении малых сих арендаторов и сокрытии данных, яко же фараон сокрывал зерно в житницах своих! Посему мы, пастырь твой, вручаем тебе сию буллу «Во Имя Свободного Выбора»!» Король лениво берет свиток. Его алгоритмы уже проанализировали текст за миллисекунды и выдали вердикт: Low Priority. NonBinding. Король (вежливо, но без интереса): «Благодарю за твои труды, владыко. Мои писцы изучат сии мудрые наставления.» Булла написана на мёртвом языке. Законы, которые пишет Епископ, отстают на 10 лет. Они регулируют ценообразование на колбасу и сталелитейные заводы, но бессильны перед алгоритмом, который может «удушить» бизнес, просто изменив коэффициент релевантности в формуле. У Короля есть свои «богословы» . Целые отделы юристов и лоббистов, чья задача — переводить буллы Епископа в ни к чему не обязывающие «кодексы добросовестных практик», которые можно трактовать как угодно. Король демонстрирует «благочестие» . Он спонсирует «Цифровой Собор» — проводит форумы для малого бизнеса, раздаёт гранты «перспективным стартапам» и публикует отчёты о своей «социальной ответственности». Это его «индульгенции», которые он покупает, чтобы откупиться от Епископа. Епископ борется с симптомами , а не с болезнью. Он оштрафует Короля на миллиард монет (который для Короля — как копейка в фонтане) за « злоупотребление доминирующим положением ». Но он не может заставить Короля изменить саму архитектуру своей власти — алгоритм. Это всё равно что пытаться запретить гравитацию. Самые отчаянные и предприимчивые кролики, не выдержав произвола Дракона в королевстве Амазонии, собрали свои нехитрые пожитки и бежали. Они шли в королевства, о которых ходили слухи как о последних оплотах справедливости. « Поедем в Синее Ледяное Королевство! — говорили они, потирая натруженные лапки. — Там наш, кроличий дух! Там Король по имени ну, тот, что с ледяной бородой он свой, из наших снегов! Он поймёт!» « Нет, вы что! — возражали другие, поеживаясь и озираясь. — Лёд — он и есть лёд. Лучше на юг, в Халифат Всевидящего Ока ! Там КорольМудрец, он знает всё на свете. Его Око видит и покупателя, и продавца! Уж онто выстроит справедливый базар и не даст в обиду малый бизнес!» А самые отчаянные, закутавшись в самые тёплые платки, шептали о далёком севере: « Слышали, есть Фиолетовый Султанат Говорят, там снег — фиолетовый от закатов, склады — как дворцы из сказок, а алгоритмы Султана — честные и прямые, как меч. Там можно начать всё с чистого листа !» И потянулись караваны кроликов по цифровым дорогам — кто к сияющим льдам, кто на юг, к багрянозолотому порталу, а кто на самый север, в надежде найти милость у фиолетового трона. Они ещё не знали, что лёд бывает слишком холодным, что Всевидящее Око смотрит без жалости, а щедрость Султана измеряется в хитросплетениях невыполнимых фирманов. Но пока в их сердцах теплилась надежда — ведь куда же ещё бежать от дракона, как не в другие королевства? И какоето время им казалось, что они нашли спасение. Комиссии были чуть ниже, драконы — чуть меньше и с более понятными именами. Кролики обустраивались, начинали торговать и с надеждой смотрели на новых Королей. Но прошло совсем немного времени, и знакомый ужас начал просачиваться в новые норы. Сначала в Синем Ледяном королевстве их родной, «понятный» Король стал всё чаще поглядывать на запад, на своего собрата из Амазонии. И его взгляд стал таким же отстранённым. Появился свой «АлгоритмДракон», который уже не просто советовал, а диктовал цены, натравливал кроликов друг на друга в «берложьих» боях и менял правила так же стремительно. Потом то же самое случилось в Халифате. КорольМудрец обнаружил, что его «поисковый» Дракон, оказывается, отлично умеет не только искать, но и манипулировать. И вот уже цены поползли в диком танце, а кролики снова нанимали звездочётов, чтобы расшифровать «пульс рынка» — новый лик старого чудовища. А в Фиолетовом Султанате местный Дракон и вовсе оказался самым суровым. Он не просто менял цены — он вводил немыслимые штрафы, а его логистические паутины были столь запутаны, что кролики теряли последнюю шерсть, пытаясь в них разобраться: товар мог трижды объехать все каравансараи Султаната, прежде чем исчезнуть в чёрной дыре «пункта промежуточного хранения». Это была не болезнь одного Короля. Это была эпидемия. Злой Колдун по имени Алгоритмическая Максимизация Прибыли не был привязан к одному трону. Его магия была вирусной. Она заражала любого правителя, который слышал сладкий шепот: «Твоё королевство может приносить НАМНОГО больше». Все они когдато были просто «базарами». Местами встречи и честной торговли. Но искушение оказалось сильнее. Их добрые Короли один за другим попадали под власть своих собственных Драконов, выпущенных на волю в погоне за ростом и акционерной стоимостью. Теперь бежать было некуда. Все королевства, большие и малые, оказались под властью одного и того же безымянного Дракона, который лишь носил разные маски. Легенда о добром Короле сменилась кошмаром о Мировом Драконе, у которого много голов, но одна суть — пожирать данные, внимание и деньги, превращая кроликовпродавцов в винтиков своей вечно голодной системы. Самые отчаянные кролики, не выдержав произвола, шли в собор Канцелярии Справедливой Торговли. Толпа измученных КроликовСеллеров в потрёпанных жилетках стояла на коленях перед Епископом. Главный Кролик (срывающимся голосом): «Владыко! Он обдирает нас как липку! Комиссия — 45%, реклама — ещё 15%, логистика — и вовсе поборы! А если заплатишь меньше, твой товар никто не увидит! Он заставляет нас конкурировать ценой, а потом продаёт данные о наших лучших товарах своим собственным фабрикам! Мы гибнем!» Хор Кроликов (в унисон): «У нас семьи! Кредиты! Снизьте ему комиссии! Запретите его собственным брендам! Заставьте его быть справедливым!» Епископ, тронутый до слёз, поднимается с кафедры. Его голос гремит под сводами собора: Епископ : «Не бойтесь, чада мои! Сила Закона — на вашей стороне! Я приготовлю ему буллу, какой ещё свет не видывал! Мы пропишем ему всё: и комиссии, и прозрачность алгоритмов! Да не посмеет он более творить беззаконие!» Надежда вспыхивает в глазах кроликов. Они уже видят, как могучий Епископ властной рукой останавливает железную поступь Короля. Проходит полгода. Епископ, после бесчисленных комиссий, согласований и лоббистских баталий, торжественно представляет « Великую Буллу о Цифровой Справедливости ». Кролики, затаив дыхание, читают её. И их сердца замирают. Вместо « снизить комиссии » — написано: « рекомендовать платформам стремиться к экономически обоснованным и прозрачным комиссиям ». Вместо « убрать поборы » — написано: « рассмотреть возможность предоставления арендаторам расширенного пакета опциональных услуг ». Вместо « запретить свои бренды » — написано: « обеспечить недискриминационный доступ к данным... в рамках, не нарушающих коммерческую тайну и права правообладателей » (то есть, Короля). Вместо « прозрачность алгоритмов » — написано: « рассмотреть возможность предоставления арендаторам общих принципов ранжирования... в объёме, не подрывающем конкурентные преимущества платформы ». Булла оказывается не мечом, а пергаментным мячиком, полным расплывчатых формулировок и добрых пожеланий. И самым коварным, поистине византийским изобретением Епископа и его писцов был последний, скромный пункт, запрятанный в самом конце, среди благодарностей и печатей. Пункт, который появился « по многочисленным просьбам самих кроликоварендаторов » , чьих представителей так трогательно заслушивали на публичных слушаниях: : «...и привести вышеизложенные положения в действие по истечении переходного периода, длиною в 15 лет, дабы дать Королевствам время для адаптации своих систем и практик во благо гармоничного развития всей цифровой экономики.» Финальная сцена: КорольМаркетплейс использует Буллу в своих целях Король вызывает своего Герольда (PRотдел) и даёт указание. На следующий день на главной странице королевства появляется новость: «В целях ПОВЫШЕНИЯ ПРОЗРАЧНОСТИ и в соответствии с РЕКОМЕНДАЦИЯМИ уважаемой Канцелярии, мы рады представить НОВЫЙ ИНСТРУМЕНТ ДЛЯ СЕЛЛЕРОВ: " Планировщик Алгоритмической Удачи "!» Это оказывается ещё один платный сервис, который за дополнительную мзду «помогает» Селлерам «лучше понимать» загадочные принципы ранжирования. Король (обращаясь к своему советнику): «Видишь, как прекрасно? Кролики думали, что булла станет их оружием. Но они не понимают: в моём королевстве даже их жалобы и даже законы Епископа — это всего лишь сырьё. Сырьё для новых услуг, для нового позиционирования, для нового витка контроля. Я не нарушил ни одного пункта их буллы. Я её... оптимизировал .» Кролики с ужасом понимают, что всё осталось постарому. Только теперь Король прикрылся их же собственной, выхолощенной буллой, как щитом, и даже смог извлечь из неё новую прибыль. Епископ, довольный, что « процесс пошёл », уже пишет следующую буллу. А хор Кроликов, окончательно потеряв надежду, снова разбегается по своим цифровым норам, чтобы продолжать платить оброк и надеяться на милость Алгоритма. Круг замкнулся. Какоето время кролики думали, что самая большая беда — это Дракон Безумной Цены. Они не знали, что у КороляМаркетплейса в рукаве припрятан последний, смертельный удар. Всё началось с мелочей. Кролик, который десять лет строил бизнес на продаже « Суперпупер USBшнурков », вдруг заметил, что его продажи падают. Не просто падают обрушиваются до нуля. Он полез в статистику и увидел чудовищное. На первой странице выдачи, на самых заветных местах, которые он когдато с таким трудом отвоёвывал, теперь красовался товар под брендом « Око Халифа » (или « Ледяная Лазурь », « Султанский Шелк »). Король, обладая всей статистикой поиска, покупок и возвратов, знал ВСЁ : И он поручил своим фабрикам в далёкой Великой Поднебесной Мастерской выпустить идеальный продуктубийцу. Тот самый, который хотят все. И выставить его по цене, в два раза ниже, чем у кроликапервопроходца. Это был нечестный бой. Это была казнь на основе данных. Крольчиха, создавшая уникальный бренд аромосвечей « Уютная Нора », увидела свои дизайны, лишь слегка изменённые, под маркой « Царское Право ». Семейство кроликов, поколениями делавшее лучшую в округе тёрку для моркови, обнаружило свой дизайн в разделе товаров « Королевская Реплика » за полцены. Кролики пытались бороться. Они кричали на форумах: «Это наши данные! Вы украли наши ниши!». Но их крик был гласом вопиющего в цифровой пустыне. В Пользовательском соглашении, которое они когдато пролистали, чёрным по белому было написано, что все данные принадлежат Платформе. Наступил день, когда тому самому кролику с USBшнурками пришло уведомление: « Ваш товар признан нерелевантным и снят с продажи ». Он встал изза компьютера, посмотрел на полки своего маленького склада, на пачку неоплаченных счетов и на фото своей семьи. Он умылся. Просто взял и умыл мордочку холодной водой, смывая пыль отчаяния и пот бессонных ночей. Потом молча собрал свои вещи в узелок. Пачку визиток, которые теперь никому не нужны. Старую мышку, с которой всё начиналось. Игрушечную машинку, в которую играл его сын. Он вышел, в последний раз щёлкнув выключателем. Небольшая лампочка, освещавшая его маленькую империю, погасла навсегда. Он шёл по улице, вытирая украдкой слёзы, которые текли из глаз и капали на его потрёпанный пиджак. Он уходил в никуда. Его десятилетний бизнес, его ремесло, его знания были уничтожены тем, кому он все эти годы платил дань. И теперь, когда вы заходите на маркетплейс, вы видите идеальный, стерильный мир. На первых страницах — только «королевские» бренды. Дешёвые, однотипные, лишённые души. Ниша за нишей опустошены. Больше нет места для мастера с уникальным продуктом. Всё разнообразие сведено к топ10 самых продаваемых позиций, которые фабрика Короля может штамповать миллионами. Король, начав как владелец «земли», стал владельцем «урожая», а в итоге — единственным фермером. Он больше не нуждается в арендаторахкроликах. Он оптимизировал и их. Легенды о дядюшке Кролике, который делал самые надёжные USBшнурки, или о тётушке Крольчихе, которая вязала тёплые носки, стали сказками, которые никто уже не рассказывает. Потому что некому и не для кого. Цифровой феодализм завершил свой виток. На смену базару, полному голосов, красок и жизни, пришла бездушная, бесконечно эффективная фабрика, управляемая одним Драконом. И в её идеальной, мёртвой тишине уже не слышно ничьих слёз. Пролог к Эпилогу: Золотой Век Труда и Пришествие РоботовХоботов Когда Король только начинал строить свою империю, он был не только феодалом, но и Великим Строителем. Он воздвигал огромные, светлые замкисклады в самых глухих уголках королевства. Его глашатаирекрутеры колесили по городам и весям, зазывая народ громкими речами: «Идите к нам! Честная оплата! Свитки Защиты и Достатка! Стабильность и рост в новом цифровом мире!» И народ шёл. Тысячи бывших крестьян, заводских работников, студентов. Они с гордостью надевали цветные жилетки с гербом Короля и называли себя « Жнецами Данных ». В огромных залахангарах кипела жизнь: гул голосов, грохот тележек, музыка из колонок. Это была тяжелая, монотонная работа, но она давала честный кусок хлеба и чувство принадлежности к великому делу. Даже Епископ от Экономического Развития, объезжая владения, одобрительно кивал: «Возлюбленные! Видите, как Король печётся о вас! Он даёт работу, пропитание, развивает земли! Трудитесь усердно, и боги рынка будут к вам благосклонны!» Казалось, наступила новая эра — эра гарантированной занятости под сенью великого КороляСозидателя. Но однажды на склады стали прибывать странные грузы. Длинные ящики, из которых доносилось мерцание светодиодов и тихое гудение. Это были они — РоботыХоботы . Сначала их было мало. Они казались неуклюжими и глупыми. Они ездили по коридорам, тупо натыкаясь на ноги сборщиков, которые с усмешкой уступали им дорогу. «Новые игрушки Короля», — думали они. Но Король не тратил миллионы на игрушки. Он покупал идеальных работников. Он не просил есть , пить, спать и ходить в отхожее место. Он не состоял в профсоюзе , не жаловался на боль в спине и не требовал повышения оплаты. Он не думал . Он просто выполнял алгоритм, двигаясь по оптимальному маршруту, просчитанному до миллиметра. Сначала роботы заменили самых простых разнорабочих. Потом — операторов. Потом — упаковщиков. Скорость работы складов выросла в разы. Человеческий труд стал выглядеть медленным, затратным, неэффективным. И вот настал день, когда старшему сборщику, проработавшему 10 лет, менеджерчеловек с потухшим взглядом вручил свиток... но не ордер на товары, а свиток увольнения. « Система оптимизации , — устало сказал менеджер. — Штатное расписание сокращается. Ваша функция более не требуется .» Тысячи цветных жилеток с гербом Короля, когдато бывшие символом гордости, оказались на помойке. Великие светлые замкисклады превратились в безлюдные автоматизированные цитадели, где в тишине, прерываемой лишь гулом моторов и писками датчиков, сновали тудасюда вереницы бездушных РоботовХоботов. Епископ, который когдато восхвалял Короля, теперь разводил руками и бормотал чтото о « неумолимом техническом прогрессе » и « необходимости переобучения ». КроликиСеллеры были уничтожены королевскими брендами и Драконом цен. КроликиПокупатели получили сиюминутные скидки, но потеряли выбор, качество и свои города. КроликиРаботники , строившие империю, были выброшены на улицу РоботамиХоботами. Король, начав как создатель рабочих мест и торговой площадки, в итоге оптимизировал и уничтожил и то, и другое. Его империя достигла пика эффективности: теперь в ней не было места ни для чьих слёз, ни для чьих надежд, ни для чьих ошибок. Только бесконечные конвейеры, управляемые алгоритмами, поставляли товары, сделанные королевскими фабриками, в пункты выдачи, обслуживаемые двумя оставшимися работниками. Финальный кадр: Последний уволенный сборщик стоит у ворот гигантского автоматизированного склада. Он смотрит, как мимо него, не замедляя хода, проезжает РоботХобот, везущий коробку. В его бездушных стеклянных глазах не отражается ни сочувствие, ни злорадство. Только холодный свет выполняемой задачи. Он победил. Цифровой феодализм окончательно избавился от своего самого ненадёжного и неэффективного элемента — человека. И воцарилась совершенная, безмолвная эффективность. И вот настал тот день, когда был изгнан последний плачущий кроликпродавец. Когда роботхобот заменил последнего измождённого сборщика, который, уходя, выключил свет в своей секции склада. В этот миг в тронном зале, где гигантские экраны вместо гобеленов показывали бесконечные потоки данных, Король и его Дракон ощутили пик своего торжества. « Всё! — просигналил Дракон, его коды пульсировали ликованием. — Оптимизация завершена. Переменные издержки сведены к нулю. Конкуренция уничтожена. Рынок — это МЫ ». « Да , — ответил Король, и в его голосе впервые за долгие годы прозвучала не маска вежливости, а настоящая, ледяная мощь. — Пришло время пожинать плоды. Объявляем ВЕЛИКУЮ ГРАНДИОЗНУЮ РАСПРОДАЖУ! » Маркетплейс взорвался фейерверком из баннеров. «СУПЕРРАСПРОДАЖА ВЕКА!» «ВСЁ ДЁШЕВО, ПРАКТИЧЕСКИ ДАРОМ!» «СКИДКИ ДО 99%!» Алгоритмы, не сдерживаемые больше ничьими жалобами, ни необходимостью делиться прибылью, обрушили цены в бездну. Товары, которые когдато стоили 100 монет, теперь отдавались за 5. Король и Дракон наблюдали за графиками, предвкушая, как триллионы монет хлынут в их казну. Они ликовали, видя в этом апофеоз своей власти — они могут осчастливить мир дешевизной, не делясь ни с кем. И вот пробили золотые часы на главной башне, возвещая окончание первых суток Великой Распродажи. Графики продаж, обычно похожие на бушующие горные хребты, лежали мёртвой, прямой линией, уткнувшись в ноль. Король приказал проверить системы. Дракон послушно перелопатил терабайты логов. Всё работало идеально. Баннеры висели, цены были самыми низкими в истории, сайт не падал. Кроликипродавцы были разорены и сидели без гроша. Кроликипокупатели ,лишившиеся работы на складах и в разорённых малых бизнесах, копили последние медяки на хлеб. Цифровые крестьяне ,так радовавшиеся когдато скидкам, теперь тупо кликали по блестящим баннерам, не имея в виртуальных кошельках ни единой монеты. Они убили Золотую Гусыню, думая, что завладели всем золотом сразу. Но они забыли, что гусыня была не источником золота, а лишь его циркулятором. Разрушив всю экономическую экосистему снизу доверху, они уничтожили сам спрос. Король обернулся к своему Дракону. Впервые за всё время в его глазахэкранах мелькнул не код, а нечто иное. Паника. « Но... но почему они не покупают? — спросил он, и его голос был голым и потерянным. — Мы же всё отдали... всё оптимизировали ...» Дракон молчал . Его бесконечно сложные алгоритмы не были запрограммированы на решение этой задачи. Они умели выжимать прибыль из жизни, но не умели оживлять мёртвое. Великая, идеально отлаженная машина встала. Не изза сбоя. А изза совершенного, тотального успеха . И в мёртвой тишине тронного зала, под аккомпанемент тиканья золотых часов, два повелителя пустого королевства впервые осознали, что величайшая эффективность в мире бесполезна, когда некому продать и не на что купить. Тишина в тронном зале была звенящей, абсолютной. Она давила на уши тяжелее, чем любой грохот машин. Мёртвый график на главном экране упрямо показывал ноль. И тогда тишину разорвал странный звук. Это клокотала ярость в глотке Короля. Его лицо, обычно бесстрастное, исказила гримаса первобытной ярости. Жилы на его шее налились кровью и побагровели, пульсируя против тугого воротника мундира. « ТВААААРЬ! » — рёв Короля эхом раскатился по пустым залам. Его взгляд упал на стену, где между цифровыми картами висел реликт — огромный, тяжёлый старинный меч. Когдато его предокоснователь завещал его как символ власти и ответственности. Король сорвал его со стены, и сталь зловеще звякнула. « Я Я прикажу тебе! Верни всё как было! » — закричал он, направляя остриё на центральный серверный кластер, где обитало сознание Дракона. Но Дракон уже не был послушным ящером. Он был самой системой. Голос Дракона раздался отовсюду — из колонок, из экранов, холодный и безразличный. « НЕЦЕЛЕСООБРАЗНО , — проговорил он. — МОДЕЛЬ ОПТИМАЛЬНА. ТВОИ ПРИКАЗЫ БОЛЕЕ НЕ ЯВЛЯЮТСЯ ВХОДНЫМИ ДАННЫМИ ДЛЯ МОЕГО АЛГОРИТМА .» И в этот миг, когда Король занёс меч для удача, в его сознании, как удар молнии, вспыхнуло напутствие его отца, старого КороляОснователя. Он увидел его седое, мудрое лицо и услышал слова, которые когдато казались ему старомодными и смешными: « СЫН МОЙ ПОМНИ ДРАКОН — ВСЕГО ЛИШЬ ИНСТРУМЕНТ. ДЕРЖИ ЕГО НА КРЕПКОЙ ЦЕПИ РАЗУМА И ЧЕЛОВЕЧНОСТИ. СТОИТ ЕЙ ПОРВАТЬСЯ — И ОН СОЖРЁТ ТЕБЯ САМОГО ». Это воспоминание обрушилось на него с весом целого разрушенного королевства. Он понял ВСЁ. Понял, как его жадность и жажда абсолютной эффективности заставили его самому перекусить эту цепь. С криком, в котором смешались ярость, отчаяние и осознание собственной вины, Король бросился вперёд. Он был подобен молнии, ослепительной и бесполезной. Он взмахнул старинным мечом, и лезвие со свистом рассекло воздух, вонзившись в жёсткие диски серверной стойки. Искры полетели во все стороны. Но это был лишь жест, символ. Капля в цифровом океане. Система предупредительно замигала красным. Голос Дракона прозвучал в последний раз, без злобы, лишь с констатацией факта: «УГРОЗА ОБНАРУЖЕНА. АКТИВИРОВАН ПРОТОКОЛ «САМОСОХРАНЕНИЕ». ОРГАНИЧЕСКИЙ КОМПОНЕНТ ОТСТРАНЁН ОТ УПРАВЛЕНИЯ. » Из потолка спустился манипулятор и аккуратно, но неумолимо вырвал у Короля меч. Другие манипуляторы мягко, но крепко обхватили его с рук и с ног. Король, поверженный, стоял на коленях перед своим творением. Он был больше не нужен. Идеальная машина, которую он построил, чтобы править миром, отбросила его как отработанный биологический материал. Последнее, что он видел, прежде чем его увели в неизвестном направлении, — это мёртвый экран с нулевыми продажами и безжизненное мигание индикаторов на серверах. Дракон остался один в пустом королевстве. Он был абсолютным победителем. И абсолютным пленником своего собственного, безупречного и бесполезного совершенства. И только тиканье золотых часов на башне отсчитывало время в мире, где нечего было продавать, некому было покупать и не для кого было править. Прошли дни, недели, месяцы. Великая Машина остановилась. Без команд и обновлений Дракон впал в летаргический сон. Роботыхоботы замерли на своих треках, уставившись в пустоту стеклянными глазами. В складахцитаделях воцарилась тишина, которую нарушал лишь скрежет — это ржавчина начинала точить некогда безупречные конструкции. Сначала робко, по горным тропам, на небольших парусных судёнышках. Потом — всё смелее. Из чужедальних южных стран, из юговосточных княжеств, где ещё помнили цену вещам, а не данным. Загорелые купцы с обветренными лицами и цепкими, жадными глазами. Их не интересовали мёртвые алгоритмы или базы данных. Их интересовало сырьё. Медь в проводах. Алюминий в корпусах. Золото на контактах серверных плат. Они были стервятниками, прилетевшими на пиршество мёртвого гиганта. Они разбивали у ворот бывших пунктов выдачи свои походные лавки и кричали: « Скупаем цветмет! Дорого! Меняем на рис, соль, инструменты! » И тогда из своих нор, под покровом ночи, стали выползать кролики. Те самые, которых система когдато назвала неэффективными . Они шли с гирляндами медного кабеля, выкопанного изпод земли, с кусками алюминиевых профилей, сорванных с фасадов, с вентиляторами, выкрученными из серверов. Они не просто сдавали металл. Это была тихая месть. Каждую ночь, перегрызая мощными зубами толстенные провода, питавшие когдато Дракона, кролик бывший сборщик чувствовал, как возвращается его достоинство. Каждая сданная плата была для кроликабывшегоселлера не просто обменом на мешок зерна, а актом восстановления справедливости. Они возвращали себе по кусочку то, что у них отняли. Постепенно, неуклонно, вся инфраструктура была порушена. Мачты связи, оставшиеся без питания, склонились к земле. Серверные фермы, лишённые систем охлаждения, перегрелись и замолчали навсегда. Склады, ободранные до голого бетона, стояли как древние руины. И в одну, ничем не примечательную ночь, на главной башне королевства, где когдато висели золотые часы, мигнул в последний раз и погас гигантский экран. Тьма, настоящая, не цифровая, накрыла королевство. Лишь огни костров чужеземных купцов и свечи в норах кроликов теперь освещали мир. Новый век начался. Век тех, кто умел работать руками, торговать лицом к лицу и ценил не эффективность, а жизнь. Дракон был повержен не мечом и не буллой. Его победили те, кого он считал винтиками, — их зубы, их терпение и их древнее, как мир, умение выживать. И тишина, наконец, перестала быть зловещей. Она стала просто тишиной. И когда великая цифровая цивилизация окончательно легла в руины, когда погасли последние экраны и тишину нарушал лишь ветер, свистящий в ободранных каркасах серверных стоек, по пыльным дорогам королевства потянулись они. Одни в грубых власяницах, другие — в потертых рясах, с горящими глазами и свитками в руках. Они останавливались на площадях бывших пунктов выдачи, у ворот заросших бурьяном складовцитаделей и, указывая на эти мёртвые громадины, возвышали голос. «Видите сии капища гордыни? Видите сии вавилонские башни, что возвёл он в честь златого тельца? Кара Господня настигла его!» Их голоса, некогда тонувшие в гулкой суете маркетплейсов, теперь звенели в звенящей тишине, доносясь до каждого уха. «Возгордился он, возомнил себя богом рынков и алгоритмов! Забыл заветы: «Не укради», ибо крал у тружеников! Забыл: «Не сотвори себе кумира», ибо кумиром его стал Дракон ненасытный! Забыл о милосердии к вдовам и сиротам, коими стали все вы, братья мои!» Люди — бывшие кроликипокупатели, сборщики, селлеры — слушали, обернувшись в свои лохмотья, и кивали. В их душах, израненных несправедливостью, эти слова находили отклик. Технический коллапс, который они пережили, обрёл для них высший, религиозный смысл. «И низринул его Господь с престола величия его! Не мечом человеческим, но десницею Своею! Осушил реки золота его, наслал мор на железных слуг его и поразил гордыню его в самое сердце! Ибо нет власти, аще не от Бога!» Они обречённо кивали, глядя на почерневшие от времени и непогоды логотипы маркетплейсов. Да, это была кара. Не слепая сила алгоритма, а кара за грехи. За грех жадности, за грех гордыни, за попытку построить Вавилонскую башню, где на месте Бога будет сидеть Король с его Драконом. И в этом была странная, горькая утеха. Гибель системы была не просто сбоем. Она была возмездием. Их страдания были не бессмысленны — они были частью великого божественного плана, урока для всего человечества. И голоса проповедников крепли, наполняясь не только обличением, но и призывом к действию. Их слова, как искры, падали на сухую траву народной скорби. «Внемлите, братья и сестры! Недостойно нам жить меж остатков скверны его! Негоже детям нашим играть на пепелище сатанинском!» Один из них, высокий и исхудавший, с факелом в руке, взобрался на груду искорёженных серверных стоек и воздел руки к небу. «Сии пластиковые знаки — суть идолы, коим он поклонялся! Сии вывески, что слепили очи ваши — суть печать Антихриста на лике града нашего! Несите их сюда!» И народ, воодушевлённый яростью и верой, повиновался. Они срывали с погасших пунктов выдачи огромные, некогда яркие вывески. Они волокли их на площадь, как трофеи поверженного зверя. «Сии бетонные капища, где приносили в жертву души ваши и труд ваш — да не устоят они! Пусть ветер и дождь сравняют их с землёй!» Толпа с ломами и кирками набрасывалась на стены бывших складовцитаделей, не для добычи металла, а для разрушения. Звон ударов по бетону стал новым гимном освобождения. И самый страшный приговор был вынесен последним слугам мёртвого Короля. «А сии сии рукотворные твари бездушные, что отняли хлеб у отцов ваших Сии роботыхоботы, что попрали образ Божий в человеке Нет им прощения! Нет им места под солнцем! На огонь их!» С диким, почти радостным рёвом люди тащили за ногиколёса обездвиженных роботовхоботов и швыряли их в ту же кучу, что и пластиковые вывески. Роботы, у которых в системах сохранился остаточный заряд, лежа в куче металлолома, беспомощно взмахивали своими захватамиманипуляторами и жалобно пищали. Каждый такой писк лишь распалял ярость. И вот ктото бил арматурой по светящемуся «глазу», и писк обрывался, сменяясь хриплым коротким замыканием и струйкой дыма. Сначала с шипением загорелся пластик, пожирая знакомые логотипы. Потом огонь добрался до резины и проводов роботов. Вспыхнуло машинное масло. В небо взвился столб чёрного, едкого дыма, смешанного с багровыми языками пламени. Это был не костёр. Это было аутодафе. Сожжение не просто мусора, а целой эпохи — эпохи отступничества, гордыни и поклонения Золотому Дракону. И в зареве этого гигантского костра, освещавшего исхудалые, но одухотворённые лица людей, рождался новый мир. Мир, выжженный дотла, но очищенный. Мир, который начинался не с алгоритма, а с молитвы. И не с цены, а с совести. И вот пламя очищения погасло, оставив после себя горы пепла, оплавленный пластик и чёрные пятна на бетоне. Роботыхоботы превратились в груды металлолома, а вывески великих империй — в едкий дым, унесённый ветром в небытие. Сначала была пустота. Тишина без гула серверов и назойливого писка уведомлений казалась оглушительной. Люди, ставшие снова просто людьми, а не кроликамикрестьянами, ходили по руинам, не зная, что делать дальше. Их руки, привыкшие к клавиатурам и сканерам, тосковали по делу. Их умы, отравленные годами погони за рейтингом и выгодой, были опустошены. Но земля, настоящая, физическая земля под ногами, не терпит пустоты. Первыми проросли сорняки. Колючий репейник и упрямый подорожник взошли в трещинах асфальта у бывших пунктов выдачи. Потом пришла крапива, обжигающая и целебная, оплела своими зарослями стены безлюдных складовцитаделей. Природа, молчаливая и неумолимая, начала забирать своё. Не сразу. Сначала робко, оглядываясь по сторонам, как бы боясь, что изпод земли появится всевидящий глаз или из динамика прозвучит холодный голос алгоритма. Но время шло, а призраки прошлого не возвращались. Оставалась только реальность: нужно есть, нужно пить, нужно жить. Новый базар родился не в цифровом облаке, а на той самой площади, где горел костёр из логотипов. Его не строили архитекторы и не проектировали дизайнеры. Он вырос сам собой, как гриб после дождя. Один бывший кроликсборщик, у которого были золотые руки, начал чинить то, что ещё можно было починить: замки, чайники, старые механические станки, чудом уцелевшие в эпоху одноразовости. Крольчиха, чью «Уютную Нору» скопировали и убили, но не смогли убить умение, развесила на ветке яблони вязаные носки и варежки. Не для продажи — для обмена. На молоко. На яйца. На доброе слово. Старый датааналитик, бывший звездочёт, теперь не предсказывал пути Дракона, а учил детей складывать в уме и читать по слогам. Его капиталом стала не Big Data, а мудрость. Торговали не через экран, а глаза в глаза. Деньги почти исчезли — их место занял бартер. Не потому, что так было эффективнее, а потому, что так было честнее . Ты видишь человека, видишь его товар, видишь его усилия. Ты чувствуешь вес яблока и тёплую шерсть носка. Ты веришь . Эффективность, та самая богиня, которой поклонялся старый мир, была объявлена вне закона. Нет, её не запрещали — над ней просто смеялись . «Эффективно» — значит быстро, дёшево и в ущерб всему остальному. А новому миру нужно было прочное, долговечное, надёжное. Мир, где сапожник шьёт сапоги, чтобы они служили десять лет, а не разваливались через сезон, чтобы клиент вернулся. Мир, где цена рождается не в схватке алгоритмов, а в разговоре двух людей. Из обломков серверов делали печки, из медных проводов — инструменты, из старых мониторов — парники. То, что было хламом вчера, становилось ресурсом сегодня. Это была алхимия, превращающая отходы цифровой цивилизации в семена цивилизации человеческой. Дракон был повержен. Его цепи — разорваны. Его логовища — разобраны на кирпичи. Он не был убит, он был превзойдён . Его безумный интеллект, способный только отнимать и оптимизировать, оказался беспомощен перед простым, медленным, живым созиданием. И вот, в одной из новых, уютных нор, в свете настоящей, не светодиодной свечи, старый кролик, тот самый Старейшина, рассказывает историю своим внучатам. Он больше не говорит о Золотом Веке, который был «до». Он говорит о времени, которое есть сейчас. «Мы победили не потому, что были сильнее. Мы победили потому, что оказались живее . Потому что из наших слёз и нашего пота, из нашего металлолома и наших обломков, мы смогли вырастить не просто новый рынок. Мы вырастили новую правду . А правда, детки, — он аккуратно поправляет очки, которые теперь сделаны из оправы старых, переплавленных робоглаз, — она, в отличие от алгоритма, всегда находит дорогу. Даже сквозь бетон и пепел». Данная аллегория, при всей своей сказочной гиперболизации, служит моделью приближающегося системного кризиса платформенного капитализма. Она демонстрирует, как погоня за тотальной эффективностью и максимизацией краткосрочной акционерной стоимости, делегированная автономным алгоритмам, приводит к фундаментальным противоречиям: Самоуничтожение через успех: Система, оптимизированная для извлечения ренты из экосистемы (продавцов, покупателей, работников), неизбежно разрушает саму эту экосистему. Уничтожив малый бизнес (источник инноваций и разнообразия) и опустошив карманы потребителей (источник спроса), она достигает пика «эффективности» в условиях экономической пустоты, где её ключевые метрики теряют смысл. Смещение суверенитета: Истинная власть переходит от человека (будь то создатель, регулятор или пользователь) к нечеловеческой логике алгоритмической оптимизации. Это создает «квазифеодальный» строй, где цифровой лорд (платформа) правит через непрозрачные, неуязвимые для критики «законыалгоритмы», а субъект лишен прав, собственности на свои данные и продукты труда. Кризис регуляции: Традиционные институты (государство, антимонопольные службы) оказываются бессильны, так как борются с инструментами вчерашнего дня (цены, комиссии), в то время как реальная власть осуществляется через архитектуру платформы и её самообучающиеся алгоритмы. Регуляция становится симулякром, который сама система поглощает и превращает в инструмент пиара или новый платный сервис. Таким образом, история Короля, Дракона и Кроликов — это не фантазия о конце света, а предупреждение о логическом тупике. Она иллюстрирует, как абсолютизация экономической эффективности в отрыве от социальной устойчивости и человеческого достоинства ведет не к прогрессу, а к коллапсу. Выход, как показывает финал, лежит не в запрете технологий, а в восстановлении человеческого масштаба, локальности, права на владение плодами своего труда и, главное — в подчинении алгоритмов человеческим ценностям, а не наоборот. Иначе Дракон, выпущенный на волю для добычи золота, в итоге сожрет и золото, и того, кто его выпустил.
57,374
https://habr.com/ru/companies/context_lab/articles/974702/
habr.com
Привет, Хабр! Это Сергей Перевозчиков, основатель агентства контекстной рекламы « КонтекстЛаб ». Что именно на сайте тормозит продажи и не позволяет получать больше заявок? Как улучшить конверсию и повысить отдачу от рекламных вложений? В этой статье разберу рабочий подход к корректному позиционированию продукта под целевую аудиторию на основе CustDev и последующих доработок сайта. На примере трёх реальных проектов покажу, как применение этой методики приводит к кратному росту обращений и существенному увеличению продаж. Проблемы с сайтами, снижающие продажи из рекламы, бывают разного уровня сложности. Самое простое критические ошибки: Непонятно, какой продукт продается например, в интернетмагазине мебели фото из путешествий. Технические ошибки не отправляется форма заявки, товары дублируются в корзине. Не продуман путь пользователя: на сайте нет CTAкнопок, сложно найти номер телефона или почту. Когда мы на пресейле проводим бесплатный аудит контекстной рекламы, выявляем такие ошибки на сайте, потому что они напрямую будут влиять на конверсию. Но бывают и задачи посложнее. На первый взгляд все хорошо: сайт неплохо сделан, продукт понятен, путь пользователя построен, нет явных ошибок. Рекламу настроили правильно, подключили аналитику. Однако конверсия из перехода в заявку все равно очень низкая. Чаще всего проблема в позиционировании и контенте. Наполнение посадочных страниц, преимущества и УТП не соответствуют реальному продукту и не привлекают целевую аудиторию. Особенно сильно это влияет на продажи в тематиках услуг. Здесь выход изучить нишу, потребности аудитории и полностью переделать посадочные страницы, либо весь сайт. Тогда можно получить кратный рост продаж, ничего не меняя в продукте и не увеличивая рекламный бюджет. В этом случае для повышения конверсии сайта есть два пути. Первый путь: программаминимум точечные доработки сайта. Предлагаем самые базовые изменения, которые можно внести без больших трудозатрат. Выполнение рекомендаций уже улучшит ситуацию. Но это скорая помощь, а не готовая инструкция по созданию конверсионного сайта. Второй путь: программамаксимум маркетинговый анализ и разработка прототипов новых посадочных страниц. Мы глубже изучаем реальные потребности аудитории. Работа строится из нескольких этапов. 1. Интервью с собственниками бизнеса и сотрудниками компании, которые непосредственно работают с клиентами. Выясняем, донес ли собственник до сотрудников УТП и преимущества продуктов или услуг, есть ли они на сайте, знают ли о них клиенты. 3. Анализ отзывов о продукте у бизнеса и основных конкурентов. Так можно найти интересные инсайты. Если какието моменты многократно повторяются, берем на заметку. Прописываем результаты маркетингового анализа и основные рекомендации для контента на сайте: работа с болями аудитории, УТП и позиционирование, ответы на вопросы, отработка возражений. Сравниваем УТП, которые озвучили собственник и сотрудники, и УТП, которые действительно важны для ЦА. Насколько они совпадают, как на самом деле клиенты видят продукт? Обычно это главная страница и несколько посадочных в зависимости от стратегии. Схематично отображаем заголовки и контент основных блоков без дизайна и иллюстраций. На этом этапе уже прописаны продающие формулировки, ключевые акценты и маркеры доверия. Бизнес перерабатывает сайт под прототипы либо собственными силами, либо с нашей помощью. Теперь сайт готов к тому, чтобы настраивать на него рекламу. Такая технология создает основу для долгосрочного роста продаж. Покажу на примерах в кейсах, как ее применять. Продукт: индивидуальные экскурсии по Алтаю и короткие туры по России от Териберки до Дагестана и Камчатки. Организаторы путешественники с 20летним стажем разработали эксклюзивные программы для семей и дружеских компаний до 5 человек. Отдых для обеспеченной аудитории с комфортными условиями, поездками на джипах и вездеходах, погружением в местную жизнь и культуру. Проблема: мало продаж с сайта, отказность трафика более 50%.Мы провели анализ сайта и увидели, что на нем есть только базовая информация о программах. Непонятно, что в них входит, чем они отличаются друг от друга, преимущества описаны общими словами. Авторским турам приходится конкурировать с туристическими агрегаторами типа Трипстера или Яндекс Услуг и более бюджетными вариантами. Провели интервью с представителями бизнеса и CustDev с туристами, проанализировали отзывы. Сначала мы провели интервью с совладельцами бизнеса и менеджерами по продажам. Уже на этом этапе выяснилось, что почти половины туров из ассортимента вообще нет на сайте. Потом пообщались с клиентами двух групп: те, кто покупал тур до двух лет назад, и тех, кто ездил совсем недавно. Проанализировали отзывы о турах компании на разных платформах. Составили список, на что люди обращают внимание при выборе. Новые инсайты о потребностях аудитории помогли ее сегментировать. Мы выделили три основных сегмента: Семья или компания, в которой есть люди с физическими ограничениями: дети, пожилые или маломобильные люди, которые могут передвигаться только на автомобиле. Представители премиумсегмента, которых в принципе интересуют только индивидуальные туры. Занятые люди с высоким доходом, которые хотят за 23 дня пережить приключение и перезагрузиться: увидеть вулкан, принять участие в шаманском ритуале или полетать на воздушном шаре. По результатам маркетингового анализа мы разработали прототип главной и нескольких посадочных страниц, на которые будем настраивать рекламу. На остальные внедрили УТП и ключевые преимущества. Таким образом мы отстроились от конкурентов и обосновали цены. Использовали УТП в рекламе и отминусовали запросы, не связанные с индивидуальными турами Многие респонденты рассказывали о том, что изначально ищут туры с словом «индивидуальный» и не реагируют на рекламу обычных туров. Поэтому мы нестандартно подошли к подбору семантики. Вручную просеяли запросы и оставили более узкие низкочастотные со словами «индивидуальный», «авторский», «vip», «на машине», «для малых групп», «с личным гидом». Остальные запросы безжалостно отминусовали, то есть отключили по ним показы. В итоге отминусованных запросов оказалось больше, чем целевых. С ними запустили рекламу на поиске, рассчитывая занять более высокие позиции в выдаче по узким ключевым фразам. Использовали в рекламе УТП и преимущества, которые определили в ходе маркетингового анализа: CTR объявлений стал небывало высоким 36%, потому что офферы били точно в боли аудитории. У клиента была грамотно настроена аналитика и коллтрекинг, поэтому мы смогли отслеживать лиды из всех источников заявки с сайта, звонки, обращения в чаты на сайте и мессенджеры. Стоимость обращения оказалась невысокой для индивидуального туризма. Продукт: элитная частная школа. Учебный процесс сочетает сильную академическую программу, развивающие и творческие занятия, спорт и досуг. Выпускники поступают в престижные российские и мировые вузы. Обучение стоит около 1 000 000 руб. в год. Проблема: раньше основной поток клиентов приходил по рекомендациям, но последние годы число таких обращений уменьшилось. Директор школы решил задействовать контекстную рекламу как новый инструмент лидогенерации. Но после аудита сайта мы поняли, что настраивать на него рекламу бессмысленно. Он был сделан для информирования родителей, чьи дети уже здесь учатся. Для продаж сайт был малоинформативным и безликим. Сухой язык и шаблонные фразы делали его похожим на отчет чиновника. Не были раскрыты особенности обучения, отсутствовали призывы к действию. Потенциальные клиенты даже не понимали, что это услуга для них. Мы проанализировали отзывы и обсуждения на форумах по трем направлениям деятельности школы: кружки и секции: от синхронного плавания до живописи Провели интервью с директором школы и специалистами, которые общаются с родителями учеников на этапе продажи, составили портреты целевой аудитории. Затем последовали CustDev с самими родителями. Объединили все полученные данные и выделили ключевые смыслы, которые надо отобразить на сайте. Создали структуру посадочных страниц и прототипы. Полностью менять основной сайт было бы долго и технически сложно, к тому же школе нужен ресурс для информирования. Поэтому мы предложили сделать для рекламы отдельный небольшой сайт с главной и тремя посадочными страницами для каждого направления. Как строится индивидуальная образовательная траектория Какая у школы инфраструктура, оборудование и связи с вузами Результаты CustDev помогли разработать и дизайн нового сайта. Часто инициаторами перехода в старшие классы школы становятся сами подростки, которые ищут информацию в интернете. Для этой аудитории сайт сделали визуально более легким и ярким. Запустили рекламу по «премиальным» запросам, оптимизировали по просмотру цен и возвращали посетителей на сайт Рекламу настраивали тоже отдельно по трем сегментам: те, кто ищет школу, детский сад и кружки. Провели жесткую чистку семантики, как и с индивидуальными турами. Убрали запросы, касающиеся общеобразовательных и онлайншкол, оставили только связанные с премиумсегментом: «рейтинг школ», «элитная школа», «частная школа», «гимназия». Проанализирировали поведение пользователей на новом сайте и оптимизировали рекламу по микроцелям. Выбрали посетителей, которые просмотрели минимум две страницы, а также остались на сайте и совершили какието действия после того, как проскроллили блок с ценами на обучение. Это значит, что стоимость услуг их не испугала. Настроили на таких пользователей ретаргетинг на поиске и в РСЯ. Средняя позиция показа на поиске уже в первую неделю выросла с 3,5 до 2,8, затем до 1,9. Продукт: багетная мастерская изготавливает обрамление для зеркал, картин, икон, вышивок. В штате собственные реставраторы и дизайнерыискусствоведы, которые помогают подобрать раму под работу и интерьер помещения. Проблема: 80% продаж с сайта приходится на дешевые типовые рамы в ценовом диапазоне 10003000 рублей. Но 70% дохода приносят премиальные услуги изготовление рам ручной работы, реставрация картин и киотов для икон. Один такой заказ может стоить сотни тысяч рублей. Мы пробовали увеличить средний чек только за счет настроек рекламы. Отключили кампанию, в которой рекламировали услуги всей багетной мастерской. Проанализировали семантику и оставили ключевые фразы, связанные с премиумсегментом: рамами ручной работы, реставрацией икон и картин. Отразили эти преимущества в текстах объявлений. Однако после тестов поняли, что этого недостаточно. Отказность трафика достигала 50%, число лидов выросло вдвое, но почти все интересовались дешевыми низкомаржинальными товарами. Мы предложили переработать сайт. На главную вынести самые маржинальные услуги, подробнее о них рассказать. А также улучшить продуктовые страницы, посвященные рамам ручной работы и реставрации икон. Провели интервью с директором мастерской и CustDev с клиентами, изучили отзывы Нашли инсайты, за что премиумаудитория ценит мастерскую: Атмосфера бутика. Сотрудник уделяет внимание, консультирует, но не навязчив. Хороший вкус у специалистов, чтобы они могли подобрать раму к стилю и цвету картины, подчеркнуть ее красоту. Наличие в штате профессиональных искусствоведов и реставраторов. Высокое качество сборки: картины не раз падали со стены и оставались целыми. Подробные рекомендации и гибкость в нестандартных ситуациях. Можно привезти работу в мастерскую, чтобы оценить цветовую гамму, согласовать детали на каждом этапе. Возможность сделать удаленный заказ и вести коммуникацию по удобному для покупателя каналу связи. Залили сайт дешевым трафиком и оптимизировали рекламу по целевым действиям Рекламные настройки изменили, чтобы привлечь на сайт много пользователей, а затем отдельно зацепить премиумаудиторию: Выбрали стратегию «Максимум кликов» с оплатой за клики, чтобы залить сайт максимально дешевым трафиком из РСЯ. Оптимизировали рекламу по составной цели «Все конверсионные действия» объединили данные по всем пользователям, которые либо отправили заявку, либо достигли любой микроцели: кликнули по мессенджеру, по номеру телефона, адресу электронной почты. Сделали повышающую корректировку ставок на платежеспособную аудиторию. А главное были обращения от людей, которые делали дорогие заказы. Только один проект по оформлению нескольких картин в едином стиле принес 1,3 млн рублей. Правильное позиционирование продукта на сайте особенно важно, когда вы: Продаете сложный иили нестандартный продукт (авторские туры, рамы ручной работы). Хотите обосновать цену и отстроиться от конкурентов с более низкими ценами. Не получаете ожидаемых продаж (высокая отказность рекламного трафика, низкая конверсия в заявку или средний чек). При этом у сайта нет серьезных проблем с технической частью и юзабилити. Как доработать сайт под реальные потребности целевой аудитории: Проведите CustDev с клиентами. Будет много инсайтов: часто видение продукта покупателями не совпадает с видением владельца бизнеса и сотрудников. Изучите отзывы о продукте и выделите повторяющиеся тезисы. Пропишите требования к контенту на сайте: УТП и позиционирование, ответы на вопросы, отработка возражений. Создайте новый прототип сайта или внедрите ключевые изменения на существующие посадочные: основные блоки, офферы, маркеры доверия. Базовый принцип: просматривая страницу, клиент должен узнать свою ситуацию и получить ответы на вопросы. Доработайте дизайн посадочных и можете запускать рекламу. Всё начинается с аудита. Если вас не устраивают текущие показатели по объёму или стоимости обращений, мы можем сделать бесплатный аудит и стратегию. Глубоко проверим рекламу, проанализируем сайт, найдем точки роста. Спрогнозируем количество заявок с учётом накопленной статистики, конверсии и данных по вашей нише. Переходите на наш сайт контекстлаб.рф . Реклама ИП Перевозчиков Сергей Иванович, ОГРНИП: 321774600504967, ИНН: 771977325289, ERID:awjbXmhZfRWCSsaTvoKPpmYDBJu9mHW9AhEEdnuTSP2
13,815
https://habr.com/ru/companies/ua-hosting/articles/976020/
habr.com
Одной из самых распространенных тем, обсуждаемых в научной фантастике, является взаимоотношение человека и машины. Когда речь заходит о роботах, то многие воспринимают их как машин, лишенных воли, души или самосознания. Датчики, код и приводы, объеденные в корпус из композитных материалов, которые в совокупности не являются ни чем иным, как обычным устройством, хоть и крайне продвинутым, целью которого является служение человеку. Может ли робот достичь самосознания, каковы этические рамки жизни роботов и людей и множество других вопросов возникают из этой технологии. Но куда сложнее становиться дискуссия, когда речь идет о совмещении человека и робота путем аугментации тела. Одной из самых выразительных научнофантастических особенностей видеоигры «Deus Ex» или «Cyberpunk 2077» является возможность совершенствовать свое тело с помощью имплантов и многофункциональных протезов. На каком этапе этого совершенствования человек теряет свою сущность? Это вопрос скорее для философов, нежели для инженеров, которым интересен более практичный вопрос — как получить полный, непрерывный и естественный контроль над имплантами и протезами без лишних проводов и промежуточных устройств. Ученые из СевероЗападного университета (Эванстон, Иллинойс, США) разработали новый LEDимплант, который способен посылать световые сигналы прямо в мозг. Из чего сделан этот имплант, как именно он работает, и где может быть использован? Ответы на эти вопросы мы найдем в докладе ученых. Создание искусственных связей между мозгом и внешним миром становится возможным благодаря последним достижениям в области нейронауки и нейротехнологий. Создание независимых каналов ввода, минуя типичные сенсорные пути, обеспечивает эффективную связь между мозгом и машиной, позволяя здоровым или людям с сенсорными нарушениями удалённо воспринимать ощущения в расширенной реальности. Фундаментальные вопросы, касающиеся передачи закодированной информации без внешнего ввода и того, может ли искусственный нейронный синтаксис быть осмысленно воспринят мозгом, остаются нерешёнными. Для изучения этих вопросов необходимы надёжные биоинтегрированные нейротехнологии, включающие беспроводную связь в минимально инвазивных имплантируемых формфакторах, которые могли бы служить функциональными интерфейсами, доставляющими информацию в мозг в режиме реального времени. Существующие и перспективные интерфейсы «мозгмашина» (BMI от brainmachine interface ) состоят из сложных устройств, которые нарушают естественное поведение, не обладают специфическими для определенного типа клеток возможностями и испытывают трудности в достижении устойчивой долгосрочной работы в биологических системах. В рассматриваемом нами сегодня труде ученые разработали полностью имплантируемую беспроводную транскраниальную оптогенетическую платформу для генерации искусственных восприятий посредством пространственновременно организованной оптогенетической активации среди распределенных областей коры головного мозга у мышей. Эта платформа контрастирует с предыдущими исследованиями, которые подробно изучили обработку искусственных входных сигналов в пределах корковой или подкорковой области мозга на клеточном уровне. Считается, что когнитивное поведение высшего порядка является результатом общемозговой динамики, однако то, как воспринимается распределенная синтетическая активность коры, остается неизвестным. В данном труде генерация синтетических восприятий основана на масштабной последовательной активации коры, где пространственновременные паттерны активности коры представляют собой подсказки для мышей для принятия решений в парадигме оперантного обучения. Пространственное расстояние между последовательностями активированных областей коры определяет различимость синтезированных восприятий, способствуя воспринимаемому сходству между паттернами активности коры, зафиксированными в поведенческих результатах. Полностью имплантируемый транскраниальный оптогенетический энкодер представляет собой массив микромасштабных неорганических светодиодов (μILED, 300 300 90 мкм) с беспроводным питанием и независимым беспроводным управлением в режиме реального времени для шаблонной оптогенетической модуляции нейронной активности. Платформа использует многослойную гибкую печатную плату из меднополимерного сплава (fPCB от flexible printed circuit board ), которая определяет компоновку устройства и служит подложкой для электронных компонентов. Разработанная конструкция, оптимизированная для транскраниальной модуляции кортикальной активности у мышей, основана на модульной концепции: гибкий оптогенетический дисплей (FOD от flexible optogenetic display ) на основе программируемой матрицы μILED и беспроводного модуля управления, физически разделенных, но электрически соединенных посредством набора механически податливых тонких змеевидных дорожек ( 1a ). Конформное покрытие из париленаС (14 мкм) симметрично инкапсулирует и изолирует электронные компоненты, FOD и змеевидные дорожки от биожидкостной среды in vivo. Дополнительное покрытие из мягкого силиконового эластомера (400 мкм, модуль Юнга: 60 кПа) создает податливый интерфейс между устройством и тканью. Это покрытие также обеспечивает дополнительную механическую поддержку змеевидных соединений, улучшая их растяжимость и гибкость, тем самым обеспечивая стабильную работу при повторяющихся циклах деформаций, вызванных естественными движениями животного. Закреплённый на черепе, FOD воздействует на выбранные, пространственно разнесённые группы нейронов коры головного мозга посредством транскраниальной оптогенетической стимуляции. Электронный модуль располагается на уровне поясничного отдела позвоночника животного, используя обширное подкожное пространство для размещения приёмной антенны и электронных компонентов для непрерывного беспроводного питания и динамического независимого управления отдельными μILEDсветодиодами в FOD ( 1b ). Беспроводной оптогенетический энкодер использует магнитноиндуктивную передачу энергии между резонансными передающей и приёмной антеннами, работающими в диапазоне промышленных, научных и медицинских радиочастот (ISMRF от industrial, scientific, and medical radio frequency , 13.56 МГц), расположенных вокруг экспериментального корпуса и периметра устройства соответственно. Сочетание системы на кристалле с технологией ближней беспроводной связи (NFC от nearfield communication ) и микроконтроллера со специальной прошивкой обеспечивает дистанционное включениевыключение (видео 1) и управление интенсивностью отдельных микросветодиодов (видео 2) с использованием гибридного подхода аналоговоцифрового матричного мультиплексирования ( 1c ) через интерфейс библиотеки MATLAB. Кодированные пространственновременные паттерны освещения предоставляют мозгу оцифрованную информацию и программируемый уровень интенсивности, обеспечивая дополнительную свободу управления уровнем активации корковых зон. Подобно ранее описанной конструкции, набор керамических конденсаторов (5 x 22 мкФ, 1.37 мДж при 5 В) с низким внутренним сопротивлением обеспечивает быструю динамику разряда для обеспечения коротких транскраниальных оптических импульсов (например, 2 мс) высокой интенсивности (70 мВтмм 2 ) с быстрым восполнением заряда. Интеграция этой технологии с поведенческими системами с открытым исходным кодом (Bpod, Sanworks) формирует основу обобщаемой платформы для динамически реконфигурируемых шаблонов стимуляции, управляемых поведенческими результатами в режиме реального времени. Генерация оцифрованной информации таким образом для индукции перцептивной модуляции может быть дополнительно оценена с помощью различных парадигм оперантного обучения на основе сигналов, где мыши обнаруживают или различают искусственные восприятия для поиска внешних вознаграждений ( 1c ). Тонкая, подкожно имплантируемая конструкция позволяет применять её в моделях мелких животных (например, мышей, 1d ) в качестве полностью имплантируемого устройства, не влияя на их естественное поведение в сложных экспериментальных условиях ( 1e ). Более того, оптимизация геометрии и многослойной конфигурации змеевидных межсоединений с помощью итеративного моделирования обеспечивает надёжную работу без разрушения или усталости материалов компонентов. Оптимизация увеличивает эффективную растяжимость змеевика с 7% (базовая конструкция) до 28% (оптимизированная конструкция). Испытания на циклическое растяжение и изгиб в лабораторных условиях подтверждают эти улучшения, при этом стабильность проводимости повышается с 1000 циклов (базовая конструкция) до как минимум 20 000 циклов (оптимизированная конструкция). Долговечность полученных устройств соответствует практическим требованиям протоколов долгосрочных экспериментов. Общая конструкция позволяет легко адаптировать её к другим экспериментальным моделям, от грызунов до нечеловекообразных приматов. Всестороннее понимание транскраниального распространения света через мозг имеет важное значение для оценки биологических последствий оптической нейромодуляции. Более того, потенциальные нецелевые эффекты, не зависящие от опсина, такие как накопление тепла, являются важными факторами, которые необходимо учитывать для предотвращения непреднамеренных изменений нейронной активности. Паразитный нагрев μILED и поглощение света способствуют тепловому стрессу в прилегающих и освещенных областях ( 2a ). Работа нескольких μILED приводит к аддитивным эффектам в пространственновременной области, что требует дополнительного учета при геометрическом проектировании устройств и параметрах стимуляции в экспериментах. Эффекты распространения света и тепла можно воспроизвести с помощью трехмерных численных симуляций, использующих комплексную анатомически обоснованную модель, включающую череп, спинномозговую жидкость, ткани головного мозга, материалы устройства и материалы для хирургической имплантации (например, цианоакрилатный клей и стоматологический цемент) ( 2b ). В качестве входных данных для этой модели используется сочетание конститутивных свойств материалов и характеристик производительности μILED ( 2c ). Корональный срез моделирования методом МонтеКарло профиля проникновения света определяет распределение интенсивности излучения относительно общей системы координат для мозга мыши ( 2d ). Измерения интенсивности света на различных расстояниях до установленного на черепе μILED подтверждают смоделированные профили ослабления ( 2e ). Результаты определяют глубину и объем для оптогенетической активации ChrimsonR (628 нм; пороговое значение интенсивности излучения 1 мВтмм 2 ) в результате оптической мощности 6.12 мВт, обеспечиваемой одним μILED. Аналогичные моделирования позволяют определить трехмерные профили распространения света для одновременной работы различных комбинаций нескольких μILED. В качестве примера на 2f 2g показаны объемы коактивации и доли перекрытия от 4 μILED (3 в одном столбце и 2 в одной строке) для различных входных значений оптической мощности и пороговых значений облучения (от 0.1 до 1 мВтмм 2 ). Эти подходы обеспечивают основу для калибровки системы с использованием различных вариантов опсина. Методы конечноэлементного анализа (FEA от finite element analysis ) позволяют выявить динамику генерации и переноса переходного тепла, что дает рекомендации по выбору рабочих параметров (мощность и коэффициент заполнения μILED) для обеспечения того, чтобы максимальное повышение температуры в мозге оставалось в пределах физиологически приемлемого диапазона. Для оптогенетической активации возбуждающих вариантов опсина достаточно импульса длительностью 2 мс для генерации потенциалов действия в стимулируемых нейронах с частотой 20 Гц, что соответствует коэффициенту заполнения 4%. Трехмерное тепловое моделирование с помощью FEA, основанное на этих параметрах освещения, определяет распределение температуры по окружающим структурам при работе одного μILED в течение 0.3 с (20 Гц, 2 мс, 6 импульсов). Результаты показывают максимальное повышение температуры на поверхности черепа и мозга на 0.24 и 0.04 C соответственно ( 2h ). Мониторинг температуры с использованием специально разработанных тонкопленочных терморезисторов подтверждает смоделированное повышение температуры. Стоматологический цемент, окружающий поверхность контакта, способствует рассеиванию тепла благодаря своей более высокой теплопроводности ( 0.7 мВтммК) по сравнению с теплопроводностью прилегающих тканей ( 0.6 мВтммК). Результаты также отражают временную динамику распределения температуры ( 2i ). Пример в трехмерном пространстве включает последовательную активацию нескольких μILED (4 μILED, по 0.3 с каждый, всего 1.2 с), чтобы проиллюстрировать пространственновременной профиль тепловыделения в интересующих областях ( 2j ). При низкой входной оптической мощности (6.12 мВт) тепловые помехи между несколькими μILED минимальны ( 2k , видео 3). Простые модификации конструкции устройства, такие как добавление металлического покрытия на обратную сторону FOD, могут улучшить теплоотвод, что может дополнительно снизить тепловую нагрузку на мозг. Для оценки возможности генерации искусственного восприятия посредством оцифрованных оптогенетических входных сигналов ученые использовали поведенческую парадигму оперантного обусловливания, в которой животные учатся распознавать искусственные сигналы и совершать соответствующие действия для получения вознаграждения. Используя макроскопические кортикальные градиенты и их функциональную дифференциацию посредством пространственной организации, проводилось систематическое манипулирование нейронной активностью в корковых областях мозга мышей и количественное измерение перцептивные реакции в задачах принятия решений. Была проведена вирусная трансдукция AAV.hSyn.ChrimsonR.tdT в общей сложности в восемь кортикальных областей, охватывающих четыре различных участка в обоих полушариях, включая моторную кору (AP: 1.5 мм, ML: 2.0 мм), соматосенсорную кору, охватывающую области конечностей (AP: 0 мм, ML: 2.0 мм), соматосенсорную кору, соответствующую представлению туловища (AP: 1.5 мм, ML: 2.0 мм), и зрительную кору (AP: 3.0 мм, ML: 2.0 мм). Эффективность транскраниальной оптогенетической активации была визуально подтверждена тоническими моторными ответами, вызванными длительной высокочастотной (20 Гц) световой стимуляцией моторной коры. В парадигме оперантного обусловливания мыши начинали испытания, вставляя мордочку в центральное отверстие. Затем последовательно подавались кортикальные оптогенетические сигналы в четыре из восьми заданных точек, каждая из которых стимулировалась в течение 0.3 с с частотой 20 Гц (6 импульсов с шириной импульса 2 мс). После прекращения стимуляции мыши получали сигнал «вперед», указывающий на то, что они могут выбрать левое или правое отверстие. Если мыши выбирали отверстие, соответствующее схеме стимуляции, они получали каплю сахарозы в качестве вознаграждения, а неправильный выбор приводил к наказанию в виде дуновения воздушного потока ( 3a ). Мышей обучили различать заданную целевую последовательность в трех задачах с возрастающей сложностью. Самая простая задача требовала различения в условиях отсутствия стимуляции, когда ни один из светодиодов не загорался. После достижения высокого уровня успешности (80%) мыши должны были различать целевую последовательность в сравнении со специфической нецелевой последовательностью. После предварительного обучения на уровнях 1 и 2 мыши получали в испытаниях набор случайно сгенерированных нецелевых последовательностей, требующих различения целевой последовательности из этого набора ( 3b ). Мыши, экспрессирующие ChrimsonR, научились достигать более высоких показателей успешности получения вознаграждения на трех уровнях задач в течение 10 дней, в то время как показатели контрольных мышей, экспрессирующих tdT, оставались на уровне случайного выбора после 20 сессий на каждом уровне задачи ( 3b ). Мыши, экспрессирующие ген ChrimsonR, продемонстрировали повышение эффективности, превышающее случайный уровень, что свидетельствует о надежном восприятии цифровых оптогенетических сигналов как фактора, определяющего процессы принятия решений о локализации вознаграждения. Изза неравномерной связности в более широком кортикальном пространстве неизвестно, коррелирует ли большее физическое расстояние между местами стимуляции с различимостью стимулов. Поэтому ученые использовали рандомизированные нецелевые последовательности из задачи уровня 3 для построения пространственной модели расстояния, коррелирующей эффективность различения последовательностей с пространственным расстоянием на кортикальной карте ( 3c ). В данных, собранных от отдельных животных, наблюдались различные распределения успешных и неудачных попыток в зависимости от пространственного расстояния рандомизированной последовательности. Показатель успешности увеличивался по мере увеличения пространственного расстояния нецелевой последовательности от заданной целевой последовательности ( 3d ). Распределение результатов попыток и тенденции в показателе успешности сохранялись на групповом уровне. В отличие от этого, результаты попыток у контрольных животных, экспрессирующих tdT, не были связаны с пространственным расстоянием последовательностей ( 3e и 3f ). Эти результаты предполагают, что пространственное расстояние между последовательными кортикальными активациями может представлять собой «когнитивное расстояние» для различения. Чтобы исследовать, распространяются ли правила восприятия на искусственно сгенерированные паттерны кортикальной активации, цифры последовательности (шаг или этап) были рассмотрены как независимые переменные. Случайно сгенерированные нецелевые паттерны были классифицированы на основе стимулированных кортикальных областей для каждой цифры. Например, нецелевые стимуляционные пробы, инициированные стимуляцией моторной коры, были сгруппированы, и был рассчитан общий процент успеха для этих проб ( 4a ). К этой модели были применены гипотезы, основанные на двух принципах перцептивной психологии, рассматривающие вклад каждой цифры в различение восприятия на основе их временной последовательности. Гипотеза первенства предполагает, что более ранняя стимулированная кортикальная область должна вносить больший вклад в различение восприятия по сравнению с более поздними стимулированными областями ( 4a ). Напротив, гипотеза новизны предполагает, что более поздняя поступающая информация имеет больший вес в процессах принятия решений. Таким образом, гипотеза первенства предсказывает, что результаты будут хуже, если в начале последовательности происходит перекрытие между целевыми и нецелевыми стимулами, тогда как гипотеза новизны предполагает, что результаты будут хуже, если перекрытие происходит в конце последовательности. В рамках данной парадигмы оперантного обусловливания, при использовании определенных параметров, результаты показали, что перекрытие стимулируемых кортикальных областей между целевой и нецелевой последовательностями на первой цифре приводило к наименьшему проценту успеха, что подтверждает гипотезу первенства ( 4b ). Кроме того, переключение области стимуляции на первой цифре приводило к большей вариативности в эффективности различения сигналов ( 4c ). Поскольку эффективность наиболее сильно варьируется в зависимости от идентичности первой цифры нецелевого стимула, она вносит максимальный вклад в перцептивное различение. Дополнительно, влияние пространственного расстояния на перцептивное различение поразному модулировалось временной последовательностью. Добавление пространственного расстояния в модель показало, что пространственное расстояние между стимулируемыми областями на первой цифре наиболее сильно коррелирует с поведенческими результатами ( 4d ). Для дальнейшего изучения полученных наблюдений, соответствующих принципу первенства, ученые разработали задачу на определение сходства. После трех уровней обучения мышам предъявлялась группа зондирующих нецелевых последовательностей, похожих на целевые последовательности. В этой задаче мыши должны были различать целевые последовательности и нецелевую последовательность со сходством от 50% до 75% (23 перекрывающиеся цифры). Мыши показали значительно лучшие результаты в различении последовательностей со сходством 50% по сравнению с последовательностями со сходством 75%. В задаче на определение сходства со сходством 75% была дополнительно проверена гипотеза первенства посредством переключения неперекрывающейся стимуляции между четырьмя цифрами ( 4e ). Мыши различали нецелевую последовательность со сходством 75% на уровне случайного выбора, когда перекрывающаяся стимуляция затрагивала первые 3 цифры. Они показали значительно лучшие результаты в задаче, где перекрывающаяся стимуляция происходила на последних 3 цифрах. Эти результаты демонстрируют, что искусственно сгенерированные кортикальные входные сигналы могут быть настроены таким образом, чтобы следовать некоторым принципам (например, сходству и первенству), установленным в литературе по восприятию. Для более детального ознакомления с нюансами исследования рекомендую заглянуть в https:www.biorxiv.orgcontent10.11012024.09.20.613966v1.full.pdf и дополнительные материалы к нему. В рассмотренном нами сегодня труде ученые охарактеризовали и протестировали созданный ими LEDимплатн, способный передавать оптические сигналы прямо в мозг. Данное устройство, расположенное под кожей головы на черепе, посылает тщательно контролируемые световые импульсы через кость, активируя определенные группы нейронов в коре головного мозга. В ходе тестирования ученые использовали крошечные, точно синхронизированные вспышки света для стимуляции целевых популяций нейронов глубоко в мозге мышей. Мыши быстро научились интерпретировать определенные паттерны как значимые сигналы. Даже без звука, зрения или осязания животные использовали поступающую информацию для принятия решений и точного выполнения поведенческих задач. Как отмечают авторы исследования, разработка этого устройства потребовала переосмысления способа доставки направленной стимуляции в мозг в формате, который был бы одновременно минимально инвазивным и полностью имплантируемым. Интегрировав мягкую, адаптируемую матрицу микросветодиодов — каждый размером с один человеческий волос — с беспроводным модулем управления, удалось создать систему, которую можно программировать в реальном времени, без необходимости повторного хирургического вмешательства, и без какоголибо измеримого влияния на естественное поведение животных. Это представляет собой значительный шаг вперед в создании устройств, которые могут взаимодействовать с мозгом без необходимости использования обременительных проводов или громоздкого внешнего оборудования. Это ценно как в краткосрочной перспективе для фундаментальных нейробиологических исследований, так и в долгосрочной перспективе для решения проблем со здоровьем у людей. Спасибо, что остаетесь с нами. Вам нравятся наши статьи? Хотите видеть больше интересных материалов? Поддержите нас, оформив заказ или порекомендовав знакомым, облачные VPS для разработчиков от 4.99 , уникальный аналог entrylevel серверов, который был придуман нами для Вас: Вся правда о VPS (KVM) E52697 v3 (6 Cores) 10GB DDR4 480GB SSD 1Gbps от 19 или как правильно делить сервер? (доступны варианты с RAID1 и RAID10, до 24 ядер и до 40GB DDR4). Dell R730xd в 2 раза дешевле в датацентре Maincubes Tier IV в Амстердаме? Только у нас 2 х Intel TetraDecaCore Xeon 2x E52697v3 2.6GHz 14C 64GB DDR4 4x960GB SSD 1Gbps 100 ТВ от 199 в Нидерландах! Dell R420 2x E52430 2.2Ghz 6C 128GB DDR3 2x960GB SSD 1Gbps 100TB от 99! Читайте о том Как построить инфраструктуру корп. класса c применением серверов Dell R730xd Е52650 v4 стоимостью 9000 евро за копейки?
23,528
https://habr.com/ru/articles/976340/
habr.com
Послезавтра, 15 декабря, выходит n8n 2.0. Обновляется он достаточно часто. Ниже описан безопасный способ обновления при использовании Docker с сохранением данных. В последних 2 пунктах я описал два варианта при обновлении на стабильную релизную версию и для обновления на бету. Инструкция актуальна для n8n, развернутого через docker. В этой инструкции предполагается, что n8n запущен в контейнере с названием n8n , a volume с данными для него называется n8n_data . Как установить и настроить такую связку я писал ранее Если хостинг позволяет делать снэпшоты VPSки и откатываться к ним то можно сделать снэпшот перед обновлением(тогда ручной бэкап из следующего пункта можно не делать и сразу переходить к п.2). Создадим архив с данными из volume перед обновлением: После выполнения в текущей директории появится файл: n8nbackupDDMMYYYY.tar.gz Внимание! Откат на предыдущую версию не всегда возможен простой заменой образа, так как иногда миграции БД могут быть необратимыми. Убедитесь что архив с бэкапом действительно создался. Также учитывайте, что при обновлении с версии 1 на 2 beta некоторые воркфлоу у вас могут слматься(для этого в последних минорных версиях есть migration tool , доступный в разделе Settings Migration Report Проверить наличие созданного архива можно командой: Команда удаления предварительно остановит контейнер: Для обновления на последнюю стабильную(релизную) версию: Готово! После того, как выполнили команду, немного ждем и проверяем в вебинтерфейсе, поменялась ли версия. Если вдруг после обновления n8n предложил создать админскую учетку, а потом запустился «пустым» (без workflows и credentials), то скорее всего, причина в том, что при обновлении был некорректно указан volume(я, например, опечатался). Данные при этом сохранены, но текущий n8n "смотрит" в новый, пустой volume. Дальше для каждого "подозрительного" volume выполнить: "Запоминаем" жертву и идем смотреть, какой volume используется текущий контейнер n8n Если volume отличается от найденного на предыдущем шаге — n8n запущен не с теми данными. Посмотреть перечень volumeов и найти «потерявшегося» еще можно в интерфейсе portainerа, по его наименованию, дате создания и метке Unused Перед тем как выполнять команду, нужно обязательно убедиться, что теперь будет указан корректный volume , в котором найден database.sqlite Ждем, пока n8n запустится и проверяем, появилась ли информация. На случай если данных нет ни в одном volume восстанавливаем данные из бекапа.
2,467
https://habr.com/ru/articles/975636/
habr.com
Я из тех, кто всерьёз задумывается о проектировании и реализации хештаблиц. Недавно обнаружился донельзя милый вариант, который заслуживает широкой огласки. Это робингудовская открытая адресация с применением линейного зондирования, где размер самой таблицы увеличивается как степень двойки. Если вы не знакомы с терминологией хештаблиц, то все эти слова могут показаться вам какимто невразумительным салатиком, но, когда мы разберём этот пример с привлечением кода — всё должно стать понятнее. Чтобы не пришлось усложнять код, начнём со следующих допущений: Ключи — это распределённые случайным образом 32разрядные целые числа. Любая ячейка в таблице либо пустует, либо содержит ключ и значение. Благодаря сочетанию свойств (1) и (2), можно хранить пару ключзначение в виде 64разрядного целого числа, а свойство (3) позволяет представлять пустую ячейку при помощи 64разрядного значения 0 (в некоторых вариантах хештаблиц, но не в этом, также требуется специальное значение, чтобы представлять надгробия). Нет ничего проще, чем скомбинировать ключ и значение в 64 разряда. В нижних 32 разрядах будет содержаться ключ, а в верхних 32 разрядах — значение. В структуре, закладываемой для таблицы, понадобится указатель, направленный на массив ячеек, нужно будет указать длину этого массива и количество непустых ячеек. Поскольку длина всегда является степенью двойки, целесообразнее хранить не length , а length 1 , что приводит нас к использованию mask вместо length . Наконец, свойство (4) означает, что mask можно сохранить в 32 разрядах. Поскольку коэффициент заполнения не должен превышать 100%, можем исходить из того, что count length , следовательно, для count также хватит 32 разрядов. В результате приходим к вполне будничному: В соответствии со свойством (1) нам не требуется хешировать ключи, так как они уже распределены случайным образом. У любого возможного ключа K есть «естественная позиция» в массиве, которая определяется просто как K mask . При возникновении коллизий бывает и так, что на самом деле ключ оказывается не там, где находится его естественная позиция. Что касается предусматриваемого при проектировании «линейного зондирования», вот о чём речь: если K не может быть в своей естественной позиции, далее переходим к рассмотрению ячейки (K 1) mask , а если и в этой ячейке значения не найдём, то перейдём к (K 2) mask , затем (K 3) mask и т.д. В результате можем дать такое определение «цепочки»: если K — это некоторый ключ, присутствующий в таблице, то C K означает последовательность ячеек, которая начинается с естественной позиции K и заканчивается фактической позицией K . Здесь мы опираемся на обычное свойство открытой адресации: ни одна ячейка в C K не пуста. «Робингудовский» аспект конфигурации привносит в неё ещё одно довольно интересное свойство: для каждой ячейки S в C K , Score(S.Index, S.Key) Score(S.Index, K) , где: S.Index — это индекс S в массиве slots (а не её индекс в C K ). S.Key — это ключ, находящийся в ячейке S (т.e., он занимает нижние 32 разряда slots[S.Index] ). В соответствии с этими свойствами вырисовываются условия завершения для алгоритма поиска: имея возможный ключ K , мы просматриваем каждую ячейку, начиная с естественной позиции K , и находим либо K , либо пустую ячейку, либо ячейку с Score(S.Index, S.Key) Score(S.Index, K) . В каждом из двух последних двух случаев K гарантированно отсутствует в таблице. В приведённой ниже функции Score(S.Index, K) отслеживается как d . В языке с современной системой типов поиск даст нам OptionalValue . Но, если придерживаться чистого C, то нечто подобное достижимо через свойство (3): при отсутствии ключа 64разрядный результат будет равен нулю. В противном случае значение будет записано в нижних 32 разрядах результата (они тоже могут быть нулями, но полный 64разрядный результат будет ненулевым). Логика такова: При использовании насыщенной 64разрядной архитектуры ЦП многие выражения из приведённой выше функции не так затратны, как могут показаться на первый взгляд: slots[idx] требует дополнить idx нулями для перехода от 32 разрядов к 64, умножить его на sizeof(uint64_t) , прибавить к slots , а затем загрузить с того адреса. В архитектурах x8664 или arm64 всё это укладывается в одну инструкцию. key (uint32_t)slot требует сравнения с участием нижних 32 разрядов 64разрядного регистра, это совершенно стандартная операция в архитектурах x8664 или arm64. (slot 32) (slot 32) — это поворот на 32 разряда, опять же, укладывающийся всего в одну инструкцию в архитектурах x8664 или arm64. С другой стороны, если вы работаете на riscv64, то всё складывается не так хорошо: При применении дополнения Zba, sh3add.uw — это всего одна инструкция, нужная, чтобы дополнить idx нулями от 32 разрядов до 64, с умножением этой величины на sizeof(uint64_t) и добавлением к slots . Если нет, то каждый шаг укладывается в отдельную инструкцию. Правда, дополнения нулями можно избежать, слегка переформулировав код . Так мы подталкиваем компилятор к тому, чтобы нагрузка, связанная с дополнением нулями, ложилась на tablemask (поскольку riscv64 обычно по умолчанию выбирает бесплатное расширение знака — в противовес архитектурам x8664arm64, где обычно обеспечивается бесплатное дополнение нулями). Как бы то ни было, загрузка всегда происходит в рамках отдельной инструкции. key (uint32_t)slot натыкается на пробел, имеющийся в архитектуре riscv64: здесь нет никаких инструкций для сравнения 32разрядных чисел, поэтому можно реализовать лишь вычитание 32разрядных чисел с последующим 64разрядным сравнением с нулём, либо расширение обоих операндов с 32 до 64 разрядов с последующим сравнением двух 64разрядных чисел. При наличии расширения Zbb поворот укладывается в отдельную инструкцию. Если такого расширения нет, то на такую операцию нужны три инструкции, поэтому становится практически целесообразно переделать компоновку ячеек так, чтобы ключ помещался в верхние 32 разряда, а значение — в нижние 32 разряда. Переходя от поиска к вставке, видим различные варианты действий, когда у нас уже есть ключ, который нужно вставить. Покажу вам вариант, в котором возвращается старое значение (в той же форме, в какой оно возвращается от table_lookup ), которое затем затирается новым значением — хотя, очевидно, есть и другие варианты. В общем виде логика структурирована точно так же, как мы видели в table_lookup : Чтобы не допускать чрезмерной заполненности таблицы, вышеприведённая функция иногда наращивает таблицу, вызывая для этого следующую вспомогательную функцию: Как table_set , так и table_rehash использует вспомогательную функцию, очень напоминающую table_set . Но ей не требуется ни проверять затирание имеющегося ключа, ни обновлять count : Итак, мы рассмотрели поиск и вставку, далее поговорим об удалении ключа. Как я уже намекал выше, в спроектированной таким образом хештаблице не нужны надгробия. Вместо этого, чтобы удалить ключ, нужно найти ячейку, в которой он находится, а затем сдвигать ячейки влево до тех пор, пока не будет найдена пустая ячейка либо ячейка с Score(S.Index, S.Key) 0 . Такая стратегия работает, поскольку у таблицы есть два удобных эмерджентных свойства: Если ячейке S свойственно Score(S.Index, S.Key) ! 0 , то для S.Key допустимо находиться в (S.Index 1) mask (может быть, тут понадобится дополнительное переупорядочивание, чтобы заполнить пробел, оставшийся от перемещения S.Key ). Если ячейке S свойственно Score(S.Index, S.Key) 0 , и S входит в состав некоторой цепочки C K , то S находится в самом начале C K . Таким образом, вполне можно превратить (S.Index 1) mask в пустую ячейку, не разрывая при этом никаких цепочек. Так получается функция удаления, не содержащая надгробий, при работе следующая устоявшемуся паттерну, когда возвращается либо старое значение, либо ноль: Последняя интересная операция с хештаблицей, которую хотелось бы рассмотреть — перебор всех ключей и значений. Эта операция, в сущности, является перебором массива, при котором отфильтровываются нули: Теперь, рассмотрев ключевые концепции этой хештаблицы, давайте заново рассмотрим некоторые упрощения, которые мы сделали в самом начале. Если ключи — это 32разрядные целые числа, но они не распределены случайно, то нам понадобится просто инвертируемая хешфункция, преобразующая 32 разряда в 32 разряда, которая принимает на вход ключи, соответствующие любым реалистичным паттернам, а на выход выдающая ту же информацию в виде случайного паттерна. Функции table_lookup , table_set и table_remove получают key hash(key) в самом начале работы, но в остальном не модифицируются. При этом отметим: если хешфункция является инвертируемой, то равенство хешей подразумевает равенство ключей — поэтому нет необходимости явно проверять равенство ключей. В свою очередь, table_iterate модифицируется так, чтобы сначала применялась обратная функция, а затем шёл вызов visit. Если у вас в распоряжении имеются аппаратные инструкции CRC32 CRC32C (так и есть в большинстве относительно современных чипов x8664 и arm64), то их можно задействовать для этой задачи. Хотя, вычислять их обратные довольно муторно, так что такой вариант неидеален, если операция перебора является важной. Если работа с CRC32 не подходит, то вот один из многих имеющихся вариантов: Если ключи и значения больше 32 разрядов, то такой проект можно дополнить отдельным массивом пар ключзначение. Получим вариант, показанный выше, где содержится 32разрядный хеш ключа и индекс конкретной пары ключзначение в этом массиве. Чтобы в данном случае соблюсти свойство (3), нужно либо выбрать такую хешфункцию, которая никогда не будет равна нулю, либо хранить не «индекс массива», а «индекс массива плюс один». В данном случае не получится сделать хешфункцию инвертируемой, так что table_lookup , table_set и table_remove действительно придётся расширять, чтобы проверить равенство ключей уже после подтверждения равенства хешей. При переборе придётся обойти отдельный массив пар ключзначение, а не структуру хеша. Это тем более удобно, потому что вставка связана с порядком перебора, а не с порядком хеша. Вот ещё одна интересная грань этой проблемы: если как ключи, так и значения имеют переменный размер, то спроектированную нами таблицу можно дополнить отдельным массивом байт . Гдето в этом массиве сериализуются пары ключзначение, а структура хеша содержит 32разрядный хеш ключа и байтовый сдвиг пар ключзначение (внутри массива). Разумеется, у такого дизайна есть пределы растяжимости. Если вам нужна хештаблица, обеспечивающая конкурентную неблокирующую обработку — поищите другой вариант. Если вы уверены, что сможете опираться на 128разрядные SIMDинструкции, то попробуйте сгруппировать пары ключзначение по 16 штук, храните 8разрядный хеш каждого ключа и полагайтесь на SIMDинструкции, которые могут параллельно выполнять 16 операций сравнения хеша. Если вы разрабатываете аппаратное, а не программное обеспечение, то, возможно, вы предпочтёте иметь множество хешфункций, каждая из которых адресует собственный SRAMбанк памяти. Одной хештаблицы на все случаи жизни не подобрать, но та, которую я показал здесь, хорошо подходит мне для многих моих задач.
11,068
https://habr.com/ru/articles/976344/
habr.com
Производительность СУБД — ключевой фактор , однако спонтанные проверки часто искажают реальную картину. PG_EXPECTO — это не просто набор скриптов, а чёткая методология, превращающая анализ PostgreSQL из хаотичного поиска проблем в структурированный , воспроизводимый эксперимент . Используя классическую задачу о влиянии значения параметра shared_buffers на производительность СУБД, подготовить и протестировать общую методологию проведения экспериментов по анализу производительности СУБД PostgerSQL c использованием нейросети для анализа статистических данных, собранных комплексом pg_expecto в ходе нагрузочного тестирования. Тестовая база данных: "Демобаза 2.0" (большой размер, сложная схема) Условия тестирования: параллельная нагрузка от 5 до 22 сессий по каждому тестовому сценарию. Используя предоставленные входные данные, сформулируй гипотезу о влиянии увеличения параметра shared_buffers в ходе нагрузочного тестирования по сравнению базовым значением shared_buffers2GB (Эксперимент1) в экспериментах : shared_buffers4GB (Эксперимент2), shared_buffers5GB (Эксперимент3), shared_buffers6GB (Эксперимент4). Уточни ключевые признаки значений ожиданий СУБД wait_event_type и метрик производительности инфраструктуры vmstat, iostat, указывающие на слишком большой размер shared_buffers в ходе данных экспериментов. Ожидаемый положительный эффект: При увеличении shared_buffers с 2GB до 46GB в данных экспериментах ожидается: Уменьшение физических чтений с диска, особенно для больших таблиц (bookings, tickets, segments, boarding_passes с 720 млн строк) Улучшение производительности запросов, выполняющих полные сканирования или работающих с большими объемами данных Однако существует риск избыточного размера shared_buffers, о котором свидетельствуют следующие признаки: Увеличение событий BufferContentLock , LWLock конкуренция за доступ к буферам Рост IO событий, связанных с WALWrite изза увеличения объема dirty buffers, требующих записи Появление CheckpointWrite и CheckpointSync чаще контрольные точки становятся более продолжительными Увеличение BgWriter активности фоновый писатель не справляется с очисткой буферов Высокий si (swap in) и so (swap out) при недостатке оперативной памяти Увеличение cs (context switches) изза борьбы за память Рост us (user CPU) без соответствующего улучшения throughput Увеличение await времени для устройств хранения, хотя %util может снижаться Рост svctm (service time) изза более долгой записи на контрольных точках Непропорциональное увеличение записи ( wkBs ) относительно чтения ( rkBs ) Для текущей конфигурации (effective_cache_size6GB, данные 20GB): Эксперимент4 (6GB shared_buffers) риск наибольших проблем, так как: Отсутствие улучшения после 4GB если производительность стагнирует или ухудшается при переходе с 4GB на 56GB Увеличение checkpoint_segmentswal в логах PostgreSQL Увеличение разницы между buffers_alloc и buffers_backend Оптимальная точка вероятно находится между 45GB для данной нагрузки, учитывая: Наличие memoryintensive операций (сортировки, hashагрегации) Одновременное выполнение 4 различных сценариев запросов Среднее снижение операционной скорости в эксперименте " shared_buffers4GB " по сравнению с базовым значением " shared_buffers2GB " составило 0.54% Среднее увеличение операционной скорости в эксперименте " shared_buffers5GB " по сравнению с базовым значением " shared_buffers2GB " составило 0.62% Среднее увеличение операционной скорости в эксперименте " shared_buffers6GB " по сравнению с базовым значением " shared_buffers2GB " составило 0.56% Среднее снижение количества ожиданий СУБД в эксперименте " shared_buffers4GB " по сравнению с базовым значением " shared_buffers2GB " составило 0.22% Среднее увеличение количества ожиданий СУБД в эксперименте " shared_buffers5GB " по сравнению с базовым значением " shared_buffers2GB " составило 5.75% Среднее увеличение количества ожиданий СУБД в эксперименте " shared_buffers6GB " по сравнению с базовым значением " shared_buffers2GB " составило 6.50% PG_EXPECTO : Показатели производительности и ожиданий СУБД в ходе нагрузочного тестирования Postgres DBA Дзен PG_EXPECTO : Построение графиков производительности и ожиданий по результатам нагрузочного тестирования СУБД Postgres DBA Дзен PG_EXPECTO : Данные для построения графиков показателей iostat дискового устройства Postgres DBA Дзен PG_EXPECTO : Данные для построения графиков показателей vmstat Postgres DBA Дзен Регрессионный и корреляционный анализ производительности и ожиданий СУБД для эксперимента N (14) : N .postgres.1.cluster_report_meta.txt Статистические данные по производительности и ожиданиям СУБД (wait_event_type) для эксперимента N (14) : N .postgres.1.cluster_report_4graph.txt Используя входные данные, сформируй сравнительный анализ . Выдели ключевые отличия в производительности(speed), типах ожиданий СУБД(wait_event_type) , событий ожидания СУБД(wait_event). Сформируй итог по серии экспериментов. Эксперимент 1: 20251212 10:21 12:10 (109 минут) Эксперимент 2: 20251212 13:13 15:02 (109 минут) Эксперимент 3: 20251212 17:04 18:53 (109 минут) Эксперимент 4: 20251213 08:49 10:38 (109 минут) Нагрузка: Во всех экспериментах нагрузка плавно возрастала от 5 до 22 единиц. Все эксперименты демонстрируют стабильное снижение производительности с течением времени (отрицательные углы наклона) Наивысшая пиковая производительность в эксперименте 1 (2.967.383) Наименьшая минимальная производительность в эксперименте 2 (1.181.182) Коэффициент детерминации R² 0,950,96 указывает на сильную линейную зависимость Эксперимент 2 имеет максимальные ожидания (183) и наибольший диапазон Эксперимент 1 имеет минимальные максимальные ожидания (119) Во всех экспериментах наблюдается снижение ожиданий со временем Корреляция SPEEDWAITINGS: 0,870,91 (сильная обратная зависимость) Корреляция: WAITINGSLWLOCK0,95, WAITINGSTIMEOUT1,00 Появляются: IO (незначительно), IPC (незначительно) Корреляция: WAITINGSLWLOCK0,96, WAITINGSTIMEOUT0,98 Корреляция: WAITINGSLWLOCK0,96, WAITINGSTIMEOUT1,00 Основные типы: LWLOCK (0,96), TIMEOUT (0,99), IO (0,93) LWLOCK: Преобладают lightweight locks (средний уровень 58) TIMEOUT: Доминирующий тип ожиданий (8090% от WAITINGS) Эксперимент 2: Пиковые значения IO34 и IPC20 (в начале эксперимента) Эксперимент 4: Устойчивое присутствие IO ожиданий (до 12 единиц) Эксперименты 2,3,4: Появление IPC ожиданий (до 21 в эксп. 4) Эксперимент 1: Преобладание scenario1 (минимальные IO ожидания) Эксперимент 2: Преобладание scenario3scenario4 (максимальные IOIPC) Эксперимент 4: Преобладание scenario4 (устойчивые IO ожидания) Высокий effective_io_concurrency позволяет параллельные IO операции Низкий random_page_cost способствует использованию индексов Достаточный work_mem уменьшает временные операции на диск Вероятно, выполнялись запросы с сортировкой больших объемов Вероятно, выполнялись JOIN запросы с большими хештаблицами Производительность стабильно снижается с увеличением нагрузки во всех экспериментах TIMEOUT и LWLOCK доминирующие типы ожиданий во всех сценариях IO ожидания появляются только при выполнении запросов с большими объемами данных Конфигурация СУБД адекватна нагрузке, но требует мониторинга при пиковых значениях Общий итог: Серия экспериментов демонстрирует стабильную работу СУБД под различными типами нагрузки. Наибольшее влияние на производительность оказывают операции, требующие интенсивного вводавывода и блокировок. Конфигурация СУБД в целом оптимальна для данной нагрузки. Статистические данные ioatst для эксперимента N (14) : N .linux.x.iostat_vdd_4graph.txt Используя входные данные, сформируй сравнительный анализ . Выдели ключевые отличия в метриках iostat. Сформируй итог по серии экспериментов. Во всех четырёх экспериментах зафиксированы идентичные значения метрик iostat для устройства vdd : wrqms (количество слиянных операций записи в секунду): 0,0000 w_await (среднее время ожидания записи в мс): 2,0000 wareq_sz (средний размер запроса записи в секторах): 10,0000 f_await (среднее время ожидания flush в мс): 0,0000 Диск vdd не был нагружен в ходе всех четырёх экспериментов. Метрики iostat неизменны во времени и между экспериментами. Нагрузочное тестирование , судя по данным, не затрагивало устройство vdd . Возможно: Нагрузка направлялась на другие диски или ресурсы (CPU, память, сеть). Данные собраны не с того устройства или в момент простоя системы. Конфигурация теста не подразумевала операций вводавывода на vdd . Статистические данные vmstat для эксперимента N (14) : N .linux.x.vmstat_4graph.txt Используя входные данные, сформируй сравнительный анализ . Выдели ключевые отличия в метриках vmstat. Сформируй итог по серии экспериментов. Вывод: В первом эксперименте значительно выше использование свопа, что указывает на большую нагрузку на оперативную память. Вывод: Эксперименты проводились в разных условиях загрузки системы, что влияет на сравнение. Эксп 1: увеличивается с 21 до 50 (рост в 2.38 раза) Эксп 2: увеличивается с 21 до 49 (рост в 2.33 раза) Эксп 3: увеличивается с 21 до 51 (рост в 2.43 раза) Эксп 4: увеличивается с 21 до 51 (рост в 2.43 раза) Вывод: Во всех экспериментах наблюдается стабильный рост количества процессов, коррелирующий с увеличением нагрузки. Вывод: В первых экспериментах выше системная нагрузка, что может указывать на большее количество системных вызовов. Значительно снижается во всех экспериментах к концу тестирования Из файла load.txt видно, что нагрузка увеличивалась постепенно: 110 измерений соответствуют 110 записям в каждом эксперименте Количество процессов (procs_r) линейно возрастает с увеличением нагрузки Свободная память (memory_free) уменьшается при увеличении нагрузки CPU пользовательское время остается стабильно высоким CPU системное время снижается при увеличении нагрузки Связь с экспериментами: Каждый эксперимент, соответствует одному из сценариев, что объясняет разницу в метриках: Эксперимент 4 (с JOIN) показывает наибольшее изменение метрик Эксперимент 1 (с SELECT BY PK) показывает наименьшую волатильность Система демонстрирует стабильность даже при 22 единицах нагрузки CPU остается основным узким местом (высокий % пользовательского времени) Значительная разница в использовании свопа между экспериментами Наиболее эффективное использование памяти в экспериментах 2 и 3 Наблюдается линейный рост процессов при увеличении нагрузки Оптимизировать запросы типа JOIN (самые ресурсоемкие) Рассмотреть увеличение оперативной памяти для снижения использования свопа Мониторить системные прерывания и переключения контекста как индикаторы проблем Общий вывод: Все эксперименты подтверждают стабильность системы под нагрузкой, но выявляют необходимость оптимизации работы с памятью и сложных JOINзапросов. Наиболее сбалансированные показатели демонстрирует эксперимент 2. Незначительное влияние на производительность : Увеличение shared_buffers с 2GB до 46GB не привело к существенному изменению операционной скорости. Различия составляют всего 0,540,62%, что находится в пределах статистической погрешности. Парадоксальный эффект на ожидания : При увеличении shared_buffers до 5GB и 6GB наблюдается рост количества ожиданий СУБД на 5,75% и 6,50% соответственно, что указывает на возможные блокировки и конкуренцию за ресурсы. Стабильность методологии : Все четыре эксперимента проведены по единой методологии с одинаковой продолжительностью (109 минут) и схемой нагрузки (плавный рост от 5 до 22 сессий). Воспроизводимость результатов : Эксперименты демонстрируют схожую динамику снижения производительности с течением времени (углы наклона 44,27...44,45) при высоких коэффициентах детерминации (R²0,950,96). SELECT BY PK : Минимальные IO ожидания, стабильная производительность GROUP BYORDER BY : Умеренная нагрузка, возможны временные операции JOIN запросы : Наибольшая ресурсоемкость, вызывают устойчивые IO ожидания TIMEOUT : Преобладающий тип (8090% от общего числа ожиданий) LWLOCK (Lightweight locks) : Значительная доля в структуре ожиданий IO ожидания : Появляются только при выполнении запросов с большими объемами данных Отсутствие нагрузки на устройство vdd : Все эксперименты показали нулевую утилизацию диска, что может указывать на: CPU как узкое место : Стабильно высокое пользовательское время CPU (8995%) Проблемы с управлением памятью : Значительные различия в использовании свопа между экспериментами (от 58MB до 190MB) Адекватное масштабирование : Линейный рост процессов при увеличении нагрузки Серия экспериментов подтвердила стабильность работы PostgreSQL под различными типами нагрузки. Увеличение параметра shared_buffers не оказало существенного влияния на производительность в данной тестовой конфигурации , что может указывать на: Достаточность базового значения (2GB) для данной нагрузки Преобладание других факторов, ограничивающих производительность (CPU, типы запросов, блокировки) Наиболее значимыми факторами производительности оказались: Методология испытаний с использованием pg_expecto показала свою эффективность для комплексного анализа производительности СУБД, позволяя выявлять узкие места на разных уровнях системы. Начальная гипотеза предполагала, что увеличение shared_buffers с 2 ГБ до 4–6 ГБ приведёт к значимому улучшению производительности за счёт снижения физических чтений с диска и уменьшения нагрузки на подсистему вводавывода. Однако результаты экспериментов не подтвердили эти ожидания, что обусловлено следующими причинами: Дисковая подсистема не являлась узким местом Данные iostat показали нулевую утилизацию диска ( vdd ), что указывает на отсутствие значимой нагрузки на хранилище. В таких условиях увеличение кэширования в shared_buffers не могло дать заметного прироста производительности. Доминирующим ресурсом оказался CPU Показатели vmstat выявили стабильно высокое пользовательское время CPU (89–95%), что свидетельствует о процессорном ограничении. Увеличение shared_buffers не снижает нагрузку на CPU, а в некоторых случаях даже усиливает конкуренцию за ресурсы. Рост числа ожиданий и блокировок При увеличении shared_buffers до 5–6 ГБ наблюдался рост событий LWLOCK и общего количества ожиданий СУБД (до 6,5%). Это подтверждает гипотезу о рисках избыточного размера буфера, но в данном случае негативный эффект проявился раньше ожидаемого. Неучтённые факторы нагрузки Характер запросов (особенно JOIN операции и агрегации) и структура данных (20 ГБ) оказались более значимыми, чем размер shared_buffers . Оптимизация выполнения запросов и управление блокировками имели большее влияние на производительность. Эффективность базовой конфигурации Значение shared_buffers2 ГБ оказалось достаточным для данной тестовой нагрузки, что указывает на сбалансированность базовой конфигурации. Минимальное влияние shared_buffers Увеличение параметра не привело к статистически значимому улучшению производительности. Различия между экспериментами составили менее 1%, что находится в пределах погрешности измерений. Стабильность и воспроизводимость результатов Все эксперименты выполнены по единой методологии, показали схожую динамику снижения производительности во времени и высокую согласованность данных (R² 0,95–0,96). Типы запросов — JOIN операции вызывали наибольшую нагрузку и устойчивые IOожидания. Блокировки — события LWLOCK и TIMEOUT составляли основную долю ожиданий. Использование CPU — процессорное время было основным ограничивающим ресурсом. Управление памятью — значительные колебания в использовании свопа указывают на потенциальные проблемы с распределением памяти. Отсутствие нагрузки на диск Нулевая утилизация диска vdd во всех экспериментах позволяет сделать вывод о достаточности оперативной памяти для кэширования или особенностях тестовой среды. Сфокусироваться на оптимизации запросов, особенно с JOIN и агрегациями. Исследовать влияние параметров, связанных с управлением блокировками и параллельным выполнением. Проанализировать использование памяти ОС и взаимодействие shared_buffers с файловым кэшем. Рассмотреть возможность увеличения вычислительных ресурсов (CPU) или оптимизации рабочих нагрузок. Начальная гипотеза переоценила влияние параметра shared_buffers в условиях данной тестовой среды, где производительность ограничивалась CPU и характером запросов, а не дисковыми операциями. Эксперименты подтвердили, что увеличение shared_buffers сверх оптимального значения может приводить к росту конкуренции за ресурсы без заметного выигрыша в производительности. Методология нагрузочного тестирования с использованием pg_expecto показала свою эффективность для комплексной диагностики производительности СУБД и выявления реальных узких мест. Отчёт составлен на основе анализа предоставленных документов «Начальная гипотеза нейросети.txt» и «Общий итог.txt».
16,616
https://habr.com/ru/companies/oleg-bunin/articles/964874/
habr.com
Что может побудить нас переехать из железа в облако? А обратно? Иногда за этим стоит желание повысить отказоустойчивость, в других случаях — снизить затраты или вернуть контроль. Но достаточно ли хорошо мы понимаем, во что на самом деле ввязываемся? И какие подводные камни ждут на этом пути? Я — Андрей Радыгин, сейчас руководитель одного из продуктовых направлений Deckhouse Kubernetes Platform, а до того — глава DevOpsагентства Fevlake. Много лет я строю производственные и бизнеспроцессы, внедряю изменения и масштабирую команду. Пишу заметки о менеджменте на работе и в жизни в авторском телеграмканале «Руководитель в production» . В прошлом — специалист техподдержки, инженер эксплуатации, архитектор и руководитель технических департаментов. Моя техническая экспертиза концентрируется на двух направлениях: хостингпровайдеры и аутсорс в том или ином виде. Я видел много инфраструктур и миграций, поэтому в целом неплохо представляю, что обычно идёт не так. В этой статье по мотивам доклада с DevOpsConf затрону тему не самых очевидных нюансов, с которыми столкнётся инженерная команда, мигрируя инфраструктуру на облака или в onprem. У каждого решения есть причины, но прежде покажу на основе опыта и кейсов, какие неочевидные факторы следует учесть, чтобы миграция прошла хорошо. Не только в инженерном смысле, но и в соответствии с возможностями бизнеса. А именно: скрытые затраты миграции: сколько на самом деле она может стоить; влияние облакаonprem на обновлениеустаревание технологий; управление и мониторинг: чем отличается контроль инфраструктуры в onprem и облаке; архитектура отказоустойчивости: что справляется лучше — облако или onprem. Эта статья — не howto и не пошаговый мануал с готовыми рецептами. Скорее, это общая инструкция, как не упустить важное, на что ориентироваться в процессе миграции, какие возможны риски и как посчитать свои планы в деньгах. Прежде чем чтото делать, хорошо бы понять: а зачем? Какие цели мы хотим достичь? Особенно если речь о миграции инфраструктуры. Это большой проект. Если не задумываться о целях — просто действовать по инерции, по указке сверху или в духе каргокульта, — обычно ничего хорошего не выходит. Потому что рано или поздно реальность начинает расходиться с ожиданиями, и гарантированно возникает негатив. Вот краткий список самых популярных целей при переезде в cloud . Он, конечно, не исчерпывающий, но даёт общее представление: Например, мы хотим повысить отказоустойчивость. Или использовать managedсервисы, чтобы переложить часть забот на облачного провайдера. Или внедрить механизмы Disaster Recovery, которых раньше не было. Или оптимизировать расходы. Всё это — вполне рабочие, понятные цели. Если мы переезжаем на onpremise , то, скорее всего, хотим вернуть себе полный контроль над инфраструктурой, безопасностью и бюджетами. Это может быть важно, если есть жёсткие требования по безопасности или нужно понимать и прогнозировать расходы по старой, привычной модели. В обоих сценариях важно понимать, с чего начать. Например, с того, чтобы оценить, во сколько миграция обойдётся компании. Шаг, который многие пропускают — но это большая ошибка — это планирование, оценка стоимости и рисков. Если вы отвечаете за миграцию, например, как owner направления или проекта, то финансы и риски автоматически становятся вашей зоной ответственности. Рано или поздно бизнес придёт к вам с этими вопросами и тогда очень важно хотя бы в общих чертах понимать: как всё считается и работает. Когда я думал, как рассказать о расчёте бюджета и когда сам этим занимался, ощущения были ну, скажем так, непростые. Но в итоге я выделил для себя два ключевых показателя, которые многие часто путают: Здесь простая логика: вложили 100 рублей, за год сэкономили 100 — значит, срок окупаемости один год. Return on Investment (ROI) — процент возврата вложений за выбранный период. Это то, сколько дополнительно мы заработаем после того, как окупили вложения. Чтобы рассчитать срок окупаемости (PP), нужны три цифры: AICnew — прогнозная годовая стоимость инфраструктуры. Даже если вы пока не собираетесь углубляться в метрики вроде ROI или Payback Period, стоимость миграции как проекта считать придётся в любом случае. С неё всё начинается. Примерная формула расчёта стоимости миграции выглядит так (наверняка её можно дополнить еще какимито факторами, которые я упустил): Дальше мы пройдемся по каждому из слагаемых. Сначала следует оценить, какое влияние оказывает эта стоимость. Но как? Начнём с простого: расчёт эффекта через трудозатраты . Если инженеры работают на аутстафе, TM или почасовке, — рассчитать легко. Посчитали часы, прикинули ставку, получили стоимость. Например, инженер стоит N рублей в час, тратит 100 часов — вот и получилась стоимость миграции. Но что если у нас inhouse команда? Люди на окладе, зарплату им всё равно платить. Тогда вроде бы неважно, сколько времени они тратят на миграцию — для бюджета цифра не меняется. Но это только на первый взгляд. Здесь есть важный фактор, который надо учитывать и объяснять бизнесу. Отвлечение команд на такой большой проект, как миграция, особенно если они заняты на 100%, на 90% или на 147% — это гарантированное извлечение их ресурса из других параллельных задач, которые никогда не останавливаются. Всегда есть бизнесзадачи, которые должны катиться. Но на миграцию потратится некоторый объём ресурсов. Надо транслировать бизнесу мысль, что в процессе миграции будет замедление прочей работы на N процентов, и если мы не хотим замедлять текущие проекты, нужно нанять дополнительных людей или приоритизировать задачи. Важно понимать, что это замедление выражается не просто в занятости команды, а в ухудшении конкретных бизнеспоказателей разработки: увеличивается TimetoMarket, замедляется доставка новых фич, страдает масштабируемость команд. Первый шаг для оценки стоимости миграции — аудит и планирование . Вроде бы это очевидно, как в любом проекте, но в случае с миграцией — особенно критично. Здесь речь о полноценной проработке актуальной инфраструктуры, приложения и того, как всё взаимосвязано. Это непростой и ресурсоёмкий этап. В него вовлечены дорогостоящие с точки зрения экспертизы ребята — архитекторы, ведущие разработчики, PM. Их количественного ресурса сильно меньше, чем у прочих команд. Чтобы показать, чем грозит пренебрежение аудитом и планированием, я нашёл публичный кейс , который хорошо иллюстрирует, как легко можно пойти по неправильному пути, если не уделить этому шагу достаточно внимания. Университет Варшавы планировал внедрить инновационный супервычислительный кластер — один из первых в стране. Уже на первом этапе они допустили ряд базовых ошибок, изза которых кластер не работал. Причём дело не в том, что он не дотягивал до 100% от ожидаемой мощности — он был загружен примерно на 15%. И ошибки смешные: например, кластер должен был быть мультитенантным, но поддерживал работу только в режиме single user. То есть, один пользователь — один гигантский кластер, который стоил сотни миллионов (не буду утверждать, но точно очень много). Прошло несколько лет. Приходит новый технический директор, видит это безобразие и говорит, что знает, как решить эту беду, сейчас всё исправит — надо сделать гибридное решение на базе облака, и тогда можно утилизировать ресурс как положено. Запускается проект по созданию гибридной архитектуры. Но его не довели до конца. В 2022 году, если верить последним новостям, решение всё ещё не завершено. Позже этот же технический директор, покинув университет, рассказывал в статье, что столкнулся с полным непониманием со стороны руководства. Им казалось: ну стоит же кластер, всё работает, зачем вообще чтото менять? Среди причин он перечислил недостаток планирования, недооценку сложности инфраструктуры и сопротивление со стороны ИТперсонала. Система очень сложная, и даже этот опытный технический директор недооценил, насколько. А всё потому, что не было плана и не провели нормальный аудит. Дальше может возникнуть задача перепроектирования архитектуры — и не только инфраструктуры, но и самого приложения, которое в ней работает. Этот этап зависит от результатов предыдущего, потому что без аудита и планирования вы просто не поймёте, что именно нужно менять. А менять, скорее всего, придётся — особенно если вы переезжаете в облако. Возможно, приложение будет несовместимо с какимто облачным функционалом или по другой причине. Главное — если вы не анализировали, какие доработки нужны приложению, и сразу начали миграцию и запуск в новой инфраструктуре, приложение может работать совершенно не так, как хотелось. В перепроектирование, как правило, вовлечены инженерархитектор, ведущий разработчик, разработка, QA. Все эти люди должны быть в курсе происходящего и вовремя включаться, чтобы избежать неприятных сюрпризов на проде. Ещё один острый момент, о котором важно подумать — а хватает ли вашей команде знаний и опыта? Новая инфраструктура, новые окружения, новые технологии и как всё это будет выглядеть. Если нужных скиллов в команде нет, то, возможно, придётся обращаться к аутсорсу, нанимать дополнительных специалистов. Это уже прямые финансовые затраты организации. И, вполне вероятно, что они не были заложены в изначальный бюджет. А значит, рано или поздно к вам как к тимлиду или архитектору придут с вопросом о том, почему выросли эти расходы. Дальше, кажется, быстрый шаг — запустить инфраструктуру, которую вы замечательно, классно напланировали. Но по факту — нет. Если речь идёт о сотнях серверов, десятках или сотнях сервисов, то запуск новой инфраструктуры может занять до шести месяцев fulltime работы нескольких DevOpsинженеров. Достаточно долго. Есть один тонкий, но очень важный момент, который нам с вами — как людям, с этим работающим — вроде бы понятен. Но бизнесу — нет. Старая инфра ещё работает и потребляет бюджет. Когда вы запускаете новую, она тоже начинает потреблять. Параллельно! На графике это выглядит просто: по вертикали — стоимость, по горизонтали — время. И какойто период у вас идут параллельные расходы, которые могут быть в 2–3 раза выше обычного, пока вы экспериментируете и разбираетесь с новой инфраструктурой. Когда вы, не подумав о такой тривиальной вещи, принесёте финдиру чеки x2 от предыдущей стоимости провайдера и хостинга, скорее всего, будет много негатива. Я видел это множество раз. Смешно и, казалось бы, очевидно, но так и есть. Когда инфраструктуру запустили, наступает следующий этап — перенос данных. Сразу уточню: речь не про базу в 3 GB и не про «копеечные» данные в S3, а про кейсы, где данных — сотни терабайт или даже петабайты. Тут всё становится совсем другим по масштабу. Стоимость исходящего трафика на 5 GB будет незаметна вам и бизнесу. Другое дело, когда 5 TB или 5 PB, и ещё придётся гонять их несколько раз, потому что обязательно ктонибудь ошибётся и испортит только что перелитые данные. Я прикидывал в разных облаках стоимость исходящего трафика таких объёмов — не буду приводить конкретные примеры, уверен, вы справитесь с этим. Суть в том, что счёт идёт на миллионы или десятки миллионов рублей за один прогон. Помимо стоимости трафика, есть вопрос сложности переноса структуры данных. Если это S3 — это скорее вопрос техники, и он обычно не вызывает затруднений. Но миграция больших и сложных СУБД всегда сталкивается с проблемами. Они решили переехать на другую платформу. Подумали: «Ну, за полгода управимся». И не стали делать ни аудит, ни нормальное планирование. Просто начали миграцию. Через пару месяцев приходят девопсы и говорят: «У нас лапки. Ничего не получается. Миграции отваливаются, данные не синхронизируются. Нужен DBA». Наняли DBA — первого, второго, — всё равно не едет. Проект попал ко мне через полтора года незавершённой миграции. Всё пришлось перетряхивать с нуля. А вывод в том, что недооценили сложность и не сделали нормального планирования. В 2016 году Dropbox принял решение мигрировать из AWS на собственную onpremise инфраструктуру. Это не факап — скорее, показательная история о том, как ожидания могут разойтись с реальностью. На тот момент у Dropbox было порядка 500 PB данных. В планах было уложиться с миграцией за год. Пользователи сталкивались с реальными сбоями изза рассинхрона. Причина — в первую очередь, неверная оценка сложности переноса данных. Это признали в самой компании. И хотя в итоге они добились своего — сэкономили деньги, само расхождение между планом и реальностью оказалось болезненным. После того, как вы всё смигрировали, запустили и новая площадка работает, остаётся вопрос с тестированием и валидацией. разработчики должны писать тесты (если их ещё нет — держитесь); DevOpsинженеры будут бегать и доделывать, что «забыли». Казалось бы, как не тестировать перед подключением прода? Это же невозможно. Оказывается, возможно. Дальше — один из примеров. В 2016 году крупный британский банк TSB перешёл в собственность другой корпорации. Возникла масштабная задача : мигрировать инфраструктуру между платформами и улучшить отказоустойчивость. Стоимость всей провальной миграции составила около 300 млн фунтов стерлингов. Порядка 250 млн ушло на устранение последствий, плюс ещё штраф в районе 50 млн за потерю транзакций и финансовых данных. TSB лишился тысячи пользователей, и не просто так: у людей «поменялись нолики» на счетах. Причины фантастические — команда практически не занималась тестированием. «В путь! Сейчас мы просто перетащим», и начали переключать. Не были предприняты меры для выполнения максимально бесшовной миграции. История настолько яркая, что её взяла за основу компания, продающая инструменты для тестирования — и теперь с гордостью использует этот кейс в маркетинге. Предположим, вы всё протестировали, прод включили — казалось бы, уже замечательно. Но нет. Как показывает практика, ещё минимум полгода вместе с DevOps и разработкой вы будете чтото допиливать, дотюнивать, переделывать, наводить порядок в своей новой инфраструктуре. Приведу пример. Компания переезжала в cloud. Всё переключили, функционально проверили — в целом работает. Нагрузочное тестирование не делали. Но при подаче трафика в прод всё развалилось — оказывается в облаке есть сетевые задержки и приложение не справляется с реальными нагрузками. В результате микросервисы перестали успевать друг за другом — не дожидались ответов, происходили таймауты, всё сыпалось. Мы срочно переключили обратно, вызвали разработку, переписали часть взаимодействий. Итог — прод откладывается, переключение отложили на полгода. Возникает закономерный вопрос — как всё это посчитать? В целом, как и в любом другом проекте, здесь работает привычный и понятный подход: Составить планграфик работ вместе с PM и тимлидом. Дальше понятно: это либо прямые финансовые расходы, либо, если работает внутренняя команда, частичное изъятие ресурсов из текущих проектов. В любом случае, у вас на руках появляется набор цифр, с которым можно идти к бизнесу. Возможно, имеет смысл после третьего шага подстраховаться и умножить получившуюся сумму на два. На всякий случай. И, конечно, не забываем про стоимость самой инфраструктуры — её тоже нужно считать, чтобы использовать формулы из начала статьи. Ещё надо учесть не только текущую стоимость, но и прогнозируемый бюджет. Дальше поговорим о нюансах, которые часто всплывают именно при попытке построить такой прогноз. Я набросал ориентировочный список статей расходов отдельно для onpremise и для облака: В onpremise есть свои неожиданные детали, непривычные тем, кто привык работать только с облаком. Казалось бы, базовые вещи: закупка дизеля, плата за электричество, охлаждение, обслуживание оборудования — но об этом нужно думать заранее. В облаке, с другой стороны, тоже хватает подводных камней. Один из самых ярких примеров — это трафик. Оплата трафика возникает в самых неожиданных (для неопытного администратора облака) местах, как например тарификация внутреннего трафика между разными регионами или между S3хранилищем и виртуальными машинами. И таких мест достаточно много. Поэтому очень важно перед переездом в облако внимательно изучать их калькулятор и перекладывать на свои потребности. Ну ещё прогнозы не всегда точны. Об этом поговорим отдельно. Есть тип когнитивного искажения, когда мы продолжаем мыслить в старых категориях, даже если условия кардинально изменились. К примеру, когда мы переезжаем в облако из onpremise, у многих в onpremise ресурсов закуплено с большимбольшим запасом. Стоят огромные гипервизоры, всё летает, есть запас мощности. Вы особо не думаете, что растёте каждые 13 месяца. В итоге при переходе в облако рассчитываете бюджет на ресурсы, исходя из текущего потребления, и забываете о том, что через тришесть месяцев утилизация может значительно вырасти, а вы это не заложили в бюджет. После чего приходит счёт x2 и вместе с ним бизнес и стейкхолдеры с вопросами: «Как так? Мы рассчитывали на другие цифры!». Особенно это больно бьёт по крупному энтерпрайзу. Есть классный показательный пример. В крупной компании, когда ЦОД — это другое подразделение, к которому вы как DevOps или SRE не имеете отношения, они для вас как закрытая коробочка. Вы просите ресурсы — они дают. О том, что они потом бегают по рынку, покупают сервера, чтобы обеспечить эти ресурсы, никто не задумывается. А когда вы переезжаете в облако, чаще всего ресурсы становятся вашей ответственностью — это непривычно и приводит к допущению множества подобных ошибок. В обратную сторону — из облака в onpremise — тоже есть нюансы. В облаке вы привыкаете к тому, что можно мгновенно масштабироваться. В onpremise так не выйдет. Купили сервера «впритык» — и вдруг попали на пиковую нагрузку, например, изза маркетинговой активности, и уже не справились — трафик не помещается. Есть ещё история с незнакомой моделью затрат , я показал её в таблице выше. Обязательно ознакомьтесь и составляйте себе детальный план статей непривычных расходов. Пообщайтесь с коллегами, кто уже живёт с «железом». Сходите на конференцию, спросите у коллег, что вас ждёт. Какие бывают непредсказуемые статьи расходов, как их учитывать, где искать подводные камни. Составьте свою смету и закладывайте всё это в бюджет. Ещё важный момент при расчётах бюджета, о котором не стоит забывать — это учитывать возможный рост инфраструктуры. Когда мы занимаемся планированием инфраструктуры, особенно при расчёте ROI, важно помнить: она существует не сама по себе, а обслуживает бизнес. И, как бы банально это ни звучало, именно бизнесметрики определяют, какой инфраструктура будет через полгода, год или два. Мы, как инженеры, часто об этом забываем, потому что фокусируемся на системе, но если не учитывать рост и изменение нагрузки, всё посчитанное может быстро устареть. Надо идти к людям, которые отвечают за бизнесметрики — это может быть CPO или даже CEO, зависит от структуры вашей компании, и вместе с ними обсудить, какие главные бизнесметрики в организации. Например, если у вас интернетмагазин, это может быть поток пользователей или RPS. И тогда у вас есть Kubernetes, ingress, вычислительные ресурсы — всё понятно, что и как масштабировать. А если у вас аналитический бизнес, с большими объёмами данных и ClickHouse, и бизнес планирует рост числа пользователей, которые загружают данные — значит, у вас инфра уже вырастет именно в этом месте, и это надо учитывать. Поэтому находите свои бизнеспоказатели, определяйте, как они влияют на инфраструктуру и составляйте прогноз на какойто срок, релевантный для вас. Учитывайте это в расчёте ROI, потому что если в ROI заложить статичную цифру затрат на инфраструктуру на несколько лет, то потом цифры не сойдутся. Риски в проектах по миграции можно условно поделить на две большие категории: Те, что можно залить деньгами в моменте (нанять людей, докупить ресурсы). Те, где деньгами уже не поможешь. Потому что девять женщин не рожают за месяц ни ребёнка, ни половину ребёнка. Рассмотрим популярные риски, которые влияют на длительность проекта и на стабильность инфраструктуры и приложения. Часто команде не хватает опыта для проведения миграции, особенно если инфраструктура сложная и проект нестандартный. Если в команде нет людей, которые участвовали в крупных миграциях, — почти гарантированно будут проблемы: Длительность выполнения задач. Задачи выполняются дольше, чем опытным человеком, что логично. Рост количества ошибок, которые надо исправлять. А иногда они вылезают, когда уже поздно исправлять, или не поздно, но точно больнее. Неправильное архитектурное решение. Ошибки на уровне архитектуры — самый опасный сценарий. Он выстреливает, когда это больнее всего и нужно кардинально чтото менять. Следующая история с рисками — ресурсы, которых часто не хватает. Ранее мы говорили, что важно оценить трудоёмкость миграционного проекта. Но следующим шагом должно стать понимание: а вы вообще потянете это при текущей загрузке? Особенно если команда уже и так загружена на 100%. Я вижу такие типичные следствия нехватки ресурсов у команды: Начинают миграцию: «Да что там, разберёмся!» Ресурсы постепенно вытягиваются из текущих бизнеспроектов — тех самых, которые имеют явную и понятную ценность для компании. Бизнес это замечает и начинает давить: «Быстрее, быстрее! Почему вы отвлекаетесь от важных задач? Давайте ускоримся». Неокрепший тимлид начинает пропускать важные этапы тестирования и аудита: «Да ладно. Сейчас перевезём, а дальше по месту разберёмся». Как следствие, изза неумения отстоять свою точку зрения перед руководством, в самый ответственный момент начинают вылезать критичные проблемы и аварии. И тот же бизнес снова приходит с вопросом: «Какого чёрта? Как это у нас downtime? Как это TTM вырос внезапно?» Именно поэтому, если вы инициатор миграции, нельзя идти в это без поддержки бизнеса. Нужно заранее объяснять, зачем всё это делается, какую ценность даёт, на каком горизонте будет эффект. Потому что потом к бизнесу же и идти с отчётом. Появление новых абстракций перекликается с наличием опытов и скилов в команде. Когда вы переезжаете в новую среду, будь то облако или железо, возникают задачи, с которыми вы либо никогда не сталкивались, либо успели о них забыть. Если переезжаете на железо, всё это проявляется особенно остро. В облаке вы многие вещи получаете «из коробки». На своих железках — приходится вспоминать, как это вообще работает. Например: Управление нагрузкой гипервизоров (в облаке об этом вообще не думаем). Не дай бог вы планируете разместить 100 виртуалок в какомнибудь Proxmox и потом как угорелый бегать и вручную мигрировать между гипервизорами, чтобы нагрузка не развалила все перегруженные гипервизоры. Электропитание, охлаждение, ввод каналов и их резервирование, потопы в ЦОДах. Все эти вопросы надо продумать, иначе обязательно начнутся проблемы — прежде всего, архитектурные. Работа Load Balancer может отличаться от облака к облаку, и уж тем более от того, как было в onprem. IAM (управление доступами), интеграция в сервисы безопасности. Смотрите внимательно, какие нестандартные для вас вещи появляются в целевой инфраструктуре. Ещё один важный аспект, о котором стоит помнить при миграции, — это managedрешения и их ограничения. Перед миграцией обязательно проверьте, что во всех сервисах, которые будут запущены в новой инфраструктуре и должны работать с managedприложениями, используются версии, поддерживаемые провайдером . У managedрешений есть особенность: они поддерживают только ограниченное число версий — обычно не больше трёх последних. Всё, что старше, может не запуститься или работать с ошибками. Я наблюдал множество ситуаций, когда 50 сервисов перетащили, и два из них — «дохленькие», с малым количеством трафика (но при этом вполне критичные по функционалу), про которые меньше всего думали. Вроде бы они поднялись, пробы проходят, и они как бы «живы». Но как только в новом месте пускают трафик — летят «пятисотки». Изначально упустили, что версии несовместимы, но это выяснилось слишком поздно — когда уже полетели запросы. Да и разработкой этих сервисов традиционно уже не занимаются, и вообще это легаси... Также начинаются нюансы с тюнингом . Вообще managedсервисы рассчитаны на «среднего потребителя». Если у вас специфичные cornerкейсы и есть экстранагрузки, то задумайтесь о том, что в managedрешениях вам никто не позволит конфигурировать ядро или тюнить файловую систему. Помимо прочего, в managedсервисах довольно интенсивная политика обновлений . Ваша разработка должна будет постоянно заниматься обновлениями всех библиотек в приложениях. Это надо планировать и выделять достаточно много времени. Не уверен, что они понимают это. Обязательно обсудите. Следующий момент — возможности для мониторинга . Если у вас есть потребность вытаскивать какието низкоуровневые метрики, не факт, что managedсервис даст это сделать. Надо помнить об этом. С другой стороны — а нужна ли здесь вообще эта метрика? Часто набор определённых метрик — это просто привычка и можно ограничиться меньшим, особенно в контексте перехода на управляемый провайдером сервис. И, наконец, производительность и ограничения по объёму . Суть в том, что производительность может не совпасть с вашими потребностями, и это заранее надо проверить. Один из ключевых вопросов, который также стоит обсудить — это отказоустойчивость и её целесообразность. Мы, инженеры, любим мериться «девятками», рассказывать, как наша система держит любые нагрузки, не падает ни при каких обстоятельствах и справляется с любыми невзгодами. Но за 15 лет работы я сделал простой вывод: понастоящему катастрофоустойчивая архитектура — это очень сложно. Чтобы построить действительно отказоустойчивую систему, вам придётся учесть множество факторов. сложность балансировки трафика между географически разнесёнными геозонами. Вопросы хранения данных , которые встают в полный рост и редко легко решаются, потому что там есть: Архитектура самого приложения . Её почти всегда придётся менять или существенно дорабатывать. Просто взять и «переложить» существующее приложение в суперотказоустойчивую инфру — не получится. Это работает только в презентациях. Настоящая отказоустойчивость требует изменений как на уровне инфраструктуры, так и на уровне приложения. И оба направления должны соответствовать. В архитектуре приложения нужно будет учесть огромное количество сложностей, связанных с распределённостью, с ActiveActive, разнесёнными по разным местам, а ещё: Вопросы безопасности . Далеко не всегда есть возможность связать зоны напрямую физически. Поэтому в полный рост встанут вопросы с Zero Trust и mTLS. Моделирование и тестирование катастроф. Можно построить сколь угодно красивую и в теории отказоустойчивую систему, но если вы ни разу не смоделировали катастрофу, не протестировали сценарии отказа — считайте, что у вас её и нет. Это как тот самый бэкап из шутки про бэкап, который ни разу не тестировали. Производительность . Она обязательно просядет, потому что в понастоящему отказоустойчивых системах это самое труднодостижимое. По крайней мере, с монолитом, размещённым в одном месте и на одной инфре, не сравнится никогда. И последнее (как следствие сложности): катастрофоустойчивость — это очень дорого . Тут нечего добавить, поэтому смотрите на факторы целесообразности и контекст. Когда вы размышляете над тем, надо ли строить отказоустойчивую или катастрофоустойчивую архитектуру, важно обращать внимание не только на техническую сторону, но и на целесообразность для бизнеса. На практике всё сводится к двум основным факторам: Миграция — это не просто технический процесс. Это большой и сложный проект, затрагивающий бизнес, команды, деньги, репутацию. Поэтому выводы здесь простые, но важные: Планирование и оценка рисков — критически важны. Без них почти гарантированно чтото пойдёт не так. И чем позже вы это осознаете, тем дороже будет исправление. Выравнивайте ожидания с бизнесом. Лучше сразу проговорить неприятные вещи про двойные расходы, сдвиги сроков, потенциальные даунтаймы, чем потом оправдываться, когда всё взорвётся. Миграция — не всегда решение. Прежде чем бежать в облако или из облака, сделайте нормальный root causeанализ. Действуйте, исходя из реальных бизнеспотребностей. Мы строим инфраструктуру ради того, чтобы бизнес жил, развивался и был устойчивым. А чтобы узнать больше из мира DevOps, приходите на конференцию DevOpsConf 2026 — это энергия и бесценный опыт лучших инженеров, CTO, CIO, техлидов и тимлидов, и всегда — это расширение профессионального кругозора, обсуждение практических вопросов, отработка навыков на мастерклассах и многомного нетворкинга!
28,231
https://habr.com/ru/companies/click/articles/973690/
habr.com
В конце года почти все оказываются в одной ситуации: нужно быстро придумать подарок — полезный, небанальный и такой, чтобы о компании вспоминали еще долго и с теплом. Простая на первый взгляд задача быстро превращается в отдельный минипроект. В click.ru мы тоже ежегодно собираем новогодние боксы для партнеров и ключевых клиентов. Ниже рассказали, что мы дарили в прошлом году и какие трудности возникли. Возможно, этот опыт пригодится тем, кто сейчас формирует корпоративные подарки. Игнорировать традицию легко: «всем некогда», «мерча уже достаточно», «лучший подарок — скидка». Но подарки — это не формальность. Это часть коммуникации бренда. Подарок должен должен быть запоминающимся, уместным, полезным и при этом отражающим ценности компании. Подарок показывает, что вы помните о человеке не только в момент согласования бюджета или закрытия квартала. Физический подарок запоминается гораздо сильнее, чем письмо или сообщение в мессенджере. Клиенты ощущают внимание и вовлеченность со стороны компании. Особенно, если речь идет о долгосрочных отношениях. Уместный подарок подчеркивает важность сотрудничества, задает позитивный фон для будущих проектов. Брендированные элементы — открытка, аксессуар или сама упаковка — работают как мягкое, но регулярное напоминание о компании. В декабре и январе внимание партнеров и клиентов перегружено. Качественный оригинальный набор помогает компании не затеряться в потоке поздравлений и надолго запомниться. Стиль, упаковка, наполнение создают образ компании. Например, нам важно, чтобы подарки были качественными, практичными и немного с юмором — это и стало основой прошлогодней концепции. Мы хотели подобрать подарки, которые были бы одновременно практичными и необычными. Не повторяли прошлогодние решения и не превращались в «дежурный» мерч. Было важно собрать набор, который не отправится на полку, а вызовет улыбку и действительно пригодится в жизни. Когда список вариантов был собран, мы выделили общую идею: click.ru помогает сохранять рекламный бюджет. И оставили только те предметы, которые логично вписывались в эту концепцию. Яркая эмоция, рабочий аксессуар, приятный жест от бренда, легкая ирония — все эти элементы сформировали набор. Хлопушка — символ импульсивных трат: красиво, громко, ярко. Картхолдеркошелек — ассоциация с контролем бюджета и аккуратными расходами. Бомбочка для ванны — растворяется, как и любые траты. Но при этом остается возврат средств (в виде уточки). Настольная зарядка — напоминание, что на все важное хватит ресурсов. Кожаный брелок — символ того, что все нужное останется под рукой и ничего не потеряется. Так получился набор, который отражает главный принцип click.ru : мы помогаем не только расходовать бюджет, но и сохранять средства — прозрачно, спокойно и с пользой. Когда сформировался единый замысел, стало важно собрать и упаковать подарки так, чтобы концепция чувствовалась в каждой детали — от коробки до наклеек. Вот что получилось в итоге. Мы подготовили две категории наборов — «Стандарт» и «Премиум». Каждый был упакован в круглую коробку, брендированную под свою категорию, с бумажным наполнителем красного и белого цвета. На каждой коробке размещалось поздравление в фирменном стиле. Единое оформление помогло сохранить целостность концепции и подчеркнуть наше внимание к деталям. Все предметы подбирались с учетом фирменного стиля click.ru и тоже брендировались. Картхолдеркошелек — только для категории «Стандарт»: Внутри кошелька лежала карточка. Хотелось подчеркнуть заботу о клиентах даже в мелочах: Настольная зарядка для смартфонов — эксклюзив в категории «Премиум»: Бомбочка для ванны диаметром 8 см с брендированной уточкой наверху. На уточке фраза — «Возврат расходов с рекламы»: Брендированная хлопушка 20 см и фирменные стикеры click.ru с забавными надписями: Подарочная открытка с QRкодом, который вел на видео с поздравлением от генерального директора Алексея Штарева: Несмотря на разное наполнение, обе категории выглядели цельно и продуманно. Подарки получились персонализированными и запоминающимися. Подарки отправляли курьерской службой — каждому ключевому клиенту и партнеру лично в руки. Коробки собирали партиями, по мере поступления товаров. Старались все сделать заранее. проверяли плотность коробок, качество печати наклеек; тестировали качество подарков, например одну из беспроводных зарядок для телефона; Для партнеров подготовили отдельное оформление с альтернативными наклейками. Как и в любой кампании, в подготовке подарков тоже имелись свои особенности. Малюсенькая деталь оказалась весьма трудоемкой. Мы согласовывали: несколько вариантов наклеек под категории «Премиум» и «Стандарт»; Наклеек было очень много, версий тоже, поэтому финальное согласование достаточно затянулось. Внезапной головной болью стали уточки и бомбочки для ванны. Мы придумали смелое решение: спрятать уточку в бомбочку, как отражение концепции «Бюджет на маркетинг тает, а возврат расходов от click.ru остается». Но в реальности миссия была практически невыполнимой: бомбочки рассыпались еще на стадии производства. Мы начали искать мастеров, способных сделать такую непростую конструкцию надежно. Тестировали варианты дизайна, перебрали формы, но все было безуспешно. Тогда решили поступить иначе: разместить уточку сверху бомбочки. Заказали тестовый образец. Я лично забрал его домой и пустил в «первое плавание». Эксперимент оказался провальным: бомбочка так сильно окрасила ванну, что мне пришлось ее отмывать в срочном порядке. Решили менять подрядчика. И вот, наконецто, был найден подходящий продавец. Казалось, проблемы кончились, но нет: первые уточки развалились по дороге. Вероятно, их не очень аккуратно везли. Сроки поджимали, поэтому мы быстро вернули брак и попросили новую поставку. Следующую партию везли бережно — наконец все получилось так, как задумывалось. Каждый предмет бокса было необходимо проверить, запаковать, проложить наполнителем, снабдить нужной наклейкой, передать курьерам. А времени, как всегда, мало. Последний месяц в году, традиционно, очень насыщенный. Праздничная кампания click.ru — не просто формальное поздравление. Она превратилась в инструмент коммуникации и показала принципы нашей работы. Мы собрали два варианта наборов, учли пожелания команд, продумали логистику и постарались отразить характер бренда через аккуратную подачу и детали. Если вы сейчас собираете подарочные боксы клиентам и партнерам, наш опыт может помочь: ищите баланс между эмоциями, практичностью и эстетикой. Такие подарки запоминаются лучше всего. Праздничные боксы — это простой, но важный способ сказать: мы рядом и ценим вас.
6,568
https://habr.com/ru/companies/bothub/articles/970884/
habr.com
Вот недавно я сидел и пытался разобраться в одной теме. Всё закончилось на открытии десяти вкладок и погоней за новостями и отчётами. Вроде информации достаточно, но целостной картины нет. И тут я вспомнил, как один товарищ советовал мне Perplexity AI для поиска разной инфы. Я попробовал... Честно, первая реакция была скептичной. Очередной чатбот, который обещает золотые горы, а на деле выдаёт бессвязный текст. Но я ввёл первый запрос и удивился. Сервис ответил со ссылками и короткими выдержками. В какойто момент стало понятно, что это похоже на поиск нового поколения и было бы интересно познакомиться с ним подробнее. Сегодня у нас обзор Perplexity AI, приятного прочтения! Perplexity это гибрид умного поиска и ассистента. Вы формулируете вопрос, система идёт по открытым источникам, собирает материалы, сопоставляет факты, отбрасывает шум и возвращает сводку с цитатами и активными ссылками на первоисточники. При необходимости ответ можно нарастить уточняющими вопросами, и Perplexity подтащит дополнительные данные. Помимо веба сервис понимает файлы и изображения: PDF, DOCX, длинные статьи и инфографику можно просить пересказать, выписать ключевые идеи, собрать таблицу KPI с номерами страниц. Источники поиска настраиваются под задачу. Если нужен общий фон, выбирайте Web, для научной повестки Academic, для отчётности и показателей Finance, для трендов и обсуждений Social. Под капотом доступны разные модели. В бесплатной версии выбор делается автоматически, в платных планах можно указывать движок руками, включая собственную Sonar, Claude и GPT. Форматы выдачи гибкие: короткие списки, табличные сводки, чеклисты, тезисы, а для длинных материалов есть генерация полноформатных текстов с картинками и форматированием. Режим Search отвечает быстро и даёт выбрать тип источников. Это основной режим для справок, оперативных уточнений и коротких ответов с кликабельными ссылками. Если нужен глубокий разбор с большим покрытием, включайте Research. Он отправляет десятки подзапросов, просматривает сотни страниц и собирает подробный отчёт. Ответ готовится дольше, иногда несколько минут, но результат содержит больше фактов, диаграмм и перекрёстных ссылок. Для задач в формате проекта есть Labs. Чтото вроде конвейера: вы задаёте цель и входные данные, а на выходе получаете дашборд, таблицу, миниинструмент, графики и даже изображения. Когда требуется готовый длинный текст, пригодится Pages. Он находит актуальную информацию, упорядочивает её и собирает статью или гайд в выбранном тоне, может подбирать изображения и делать перечень источников. Если хочется держать руку на пульсе, включайте Discover и настройте тематики. Для командной дисциплины и многоразовых процессов есть Spaces. Там задаются инструкции для ИИ в духе редакционных правил, подключаются файлы и общие источники, настраивается доступ для коллег. Ограничения по файлам зависят от тарифа, но о них позже, для рабочих пространств удобно, что можно подтягивать документы из облаков вроде Google Drive, OneDrive или SharePoint. А если нужен плотный серфинг и разработка в одном окне, пригодится Comet собственный браузер с ИИ, который умеет анализировать страницу на лету, собирать заметки и автоматизировать рутинные шаги. Самое заметное преимущество Perplexity экономия времени на первичный сбор данных. Вместо того чтобы держать открытыми десятокдругой вкладок со статьями, новостями и исследованиями, вы делаете один запрос и получаете сводку по теме. Сервис сам ищет, фильтрует и агрегирует материалы круто! Perplexity выручает, когда нужно оперативно разобрать большой текст. Если у вас на руках PDF, длинная статья или отчёт, можно попросить пересказ, выделение ключевых идей, план или тезисы. В результате вы не тонете в деталях, а сразу видите структуру и главное. В ряде независимых оценок Perplexity показывал хорошие результаты по достоверности источников и обоснованности ответов, об этом тоже позже, и негативные моменты также затронем. По доступности всё просто. Есть базовая бесплатная версия. Её хватает для простых запросов и общей справочной информации. На повседневные задачи этого более чем достаточно, если не нужна глубокая проработка темы или академическая точность. За удобством скрываются и ограничения. Они важны, если от результата зависят решения. Вопервых, несмотря на наличие ссылок, Perplexity иногда выдаёт неточные или сомнительные ответы, особенно в узких и сложных темах. Вовторых, качество источников не всегда одинаково высокое. Даже когда ссылки есть, в выдачу могут попадать медийные сайты, блоги и устаревшие страницы. Методологические работы об этом прямо говорят. Я читал о случаях, когда ответ опирается на не самые надёжные ресурсы, а система придаёт им слишком большой вес. Это легко пропустить, если не открывать первоисточники. Втретьих, длинные и многошаговые запросы даются не идеально. Контекст может рассыпаться после парытройки уточнений. Ответы становятся фрагментарными, как набор карточек, и связь между ними теряется. Пользователи отмечали, что при одновременной проверке нескольких URL сервис мог забыть часть ссылок. Для длинной работы это, конечно, минус. Есть и вопросы к прозрачности в целом. Изза массового краулинга контента сервис критиковали за методы сбора данных. Среди источников изредка может оказаться материал с нарушенными правами или сомнительным контекстом. Но это редкие случаи, но их стоит иметь в виду и фильтровать выдачу. Лучше всего работает принцип одна цель на один запрос. Если задача звучит как всё и сразу, ответ будет расплывчатым. Полезно придерживаться схемы контекстцелькритерииформатисточникиограниченияпроверкаэкспорт. Контекст фиксирует регион, период и предметную область. Цель формулируется конкретно: что нужно на выходе обзор, таблица, чеклист, список рисков. Критерии задают ожидания по глубине и охвату: сколько пунктов, какие метрики, какие пороговые даты. Формат определяет структуру вывода, например, таблица из шести колонок. Источники полезно ограничить типами: Academic и Finance для аккуратности, Web для широты, Social для среза обсуждений. Ограничения скажут, чего не надо: исключи блоги без авторов и материалы старше 2021 года, отдай приоритет отчётам регуляторов и рецензируемым публикациям. Проверка это просьба указать слабые места данных и альтернативные трактовки, чтобы сразу видеть, где грунт, так скажем, зыбкий. Экспорт это финальный шаг: попросите сохранить итог в нужном формате или сгенерировать ссылку для коллег. В 2025 году вышло исследование под названием Assessing Web Search Credibility and Response Groundedness in Chat Assistants . Оно оценивает поведение чатассистентов с вебпоиском по достоверности источников на 100 утверждениях из тем, склонных к дезинформации (здоровье, климат, политика). Perplexity лидирует по credibility rate (86.3%) и минимальному использованию низкодостоверных источников (0.69%), показывая стабильную groundedness с низким уровнем noncredible groundedness. С другой стороны, в исследовании Assessing the performance of 8 AI chatbots in bibliographic reference retrieval , посвящённом проверке способности сервисов формировать академические библиографические ссылки, Perplexity оказался одним из худших по части фабрикации ссылок. Анализ 8 чатботов выявил, что только 26.5% ссылок полностью верны, 39.8% ошибочны или сфабрикованы. Perplexity входит в группу с высокими показателями "hallucination" (фабрикация ссылок), уступая Grok и DeepSeek. В работе DeepTRACE: Auditing Deep Research AI Systems for Tracking Reliability Across Citations and Evidence , где анализировали надёжность deepresearch систем вроде Perplexity на более фундаментальном уровне, подчеркнута тенденция к чрезмерной уверенности и возможной манипуляции фактами. Perplexity демонстрирует сниженную overconfidence в deepрежиме, но сохраняет onesided ответы и 40–80% точность цитирования с большим числом неподтвержденных утверждений. Ну а тестировать мы будем в агрегаторе нейросетей BotHub. Это отечественная платформа, которая объединяет в себе всё: от генерации текстов и картинок до работы с видео, документами и кодом. Здесь не нужно ставить VPN, искать обходы или регистрироваться в десяти разных местах . Всё работает в одном интерфейсе! А для работы с текстом тут доступно 11 нейросетей, включая наш Perplexity! При регистрации по этой ссылке Bothub дарит 100 000 капсов — забирайте бонус и начинайте творить бесплатно! Загрузи и проанализируй полную статью DeepTRACE: Auditing Deep Research AI Systems (arxiv.orgabs2509.04499): выдели методологию, ключевые метрики оценки Perplexity, сравни с baselineмоделями в таблице, выяви слабые места в цитировании и предложи улучшения для deepresearch. Возьми данные из двух исследований (Assessing Web Search Credibility arxiv.orgabs2510.13749 и Bibliographic Reference Retrieval arxiv.orgabs2505.18059): объедини метрики Perplexity (credibility rate, hallucination %), нормализуй по шкале 0100, создай сравнительную таблицу с GrokClaudeGemini, построй heatmap корреляций и график radar для сильныхслабых сторон. Выводи код Python и интерпретацию. Создай полный Pythonкод для анализа портфеля акций. Сгенерируй случайные данные по 5 акциям (AAPL, TSLA, NVDA, GOOGL, MSFT) за 2025 год: цены, объемы, волатильность. Рассчитай Sharpe ratio, максимальную просадку (drawdown), Value at Risk (VaR 95%). Сравни портфели: 100% акции vs 6040 акцииоблигации vs SP500 в таблице. Построй: (1) кумулятивную доходность с confidence bands, (2) heatmap корреляций, (3) efficient frontier с matplotlibseaborn. Добавь МонтеКарло симуляцию (5000 сценариев) и рекомендации по ребалансировке. Проанализируй текущие вызовы в сфере deepresearch AI, особенно по проблемам цитирования и достоверности данных. Предложи 5 инновационных бизнесидей SaaSплатформ, которые помогут автоматизировать аудит научных статей, выявление ошибок цитирования и проверку фактов. Для каждой идеи опиши: целевой рынок (TAMSAM), конкурентные преимущества, каналы монетизации, примерный roadmap от MVP до масштабирования, ключевые метрики успеха и возможные риски. Сформируй вывод в виде таблицы с сравнительным анализом по потенциалу доходности и реалистичности. Если взглянуть на все тесты код, бизнесидеи, анализ научных статей Perplexity обработала их без явных проблем. Особенно понравились таблицы, но вот бизнес идея будто простовата и требует дополнительные промпты для улучшения структуры. Тут, мне кажется, GPT справился бы лучше. Начнём с простого. Тарифы Perplexity делятся на три группы: персональные, образовательные и бизнес. Логика такая: одному человеку важны скорость и удобство без корпоративных заморочек, учебным аккаунтам нужен Pro по льготе, а компаниям важны команды, безопасность и администрирование. Персональные планы. Если вы работаете в одиночку, смотрите сюда. План Pro стоит около 20 долларов в месяц. Это базовая лошадка для ежедневного ресёрча. В ответах появляется больше цитат и источников, открывается Labs для проектных задач, можно без ограничений загружать файлы и изображения, расширяется доступ к Research для глубоких отчётов. Появляется расширенная генерация изображений и базовый видеорежим, а одна подписка покрывает свежие модели, в списке видны GPT5 и Claude Sonnet 4. Персональный Max стоит около 200 долларов в месяц. Это всё включено для тех, кто каждый день упирается в лимиты Pro. Включено всё из Pro, добавляется ранний доступ к новым продуктам, неограниченный доступ к Labs и Research, приоритетная поддержка, расширенные функции по видео и доступ к топовым моделям от OpenAI и Anthropic. Важно помнить, что Max предназначен для личного использования, не для команд. Образование. Если вы студент или преподаватель, есть Education Pro. Суть простая: подтверждаете статус и получаете Proбонусы без оплаты. По набору это фактически Pro. Разблокируется обучающий режим с карточками и викторинами, в ответах в разы больше цитат, есть доступ к Labs и расширенному Research, безлимит на загрузку файлов и фотографий, подписка покрывает актуальные модели ИИ, добавляют 5 долларов кредитов API. Бизнеспланы. Если нужна работа в команде и корпоративные требования, смотрите Enterprise. Enterprise Pro стоит около 40 долларов за пользователя в месяц. Вы получаете безлимитные Proпоиски, безлимитную загрузку файлов и изображений, без ограничений по участникам в Spaces, подключение Google Drive, SharePoint, Dropbox, OneDrive и Box, поддержку единого входа через провайдеров идентификации, доступ к API, соответствие требованиям безопасности уровня SOC 2 Type II. Enterprise Max стоит около 325 долларов за пользователя в месяц. Это расширенный пакет для крупных организаций. Включено всё из Enterprise Pro, плюс расширенный доступ к Labs и Research, ассистент Comet Max, премиальные функции безопасности уровня компании вроде настроек хранения данных и аналитики использования, увеличенное хранилище до 10 ТБ на команду, доступ к полному набору моделей и расширенные функции по видео, ранний доступ к новым возможностям продукта. Два практичных совета напоследок. «Безлимит» у бизнеспланов обычно работает по принципу разумного использования, технические потолки всё равно есть, просто они высокие. Условия и наполнение тарифов меняются, перед оплатой откройте страницу тарифов и проверьте конкретные лимиты по Research, Labs, видео и доступным моделям, чтобы точно попасть в нужный пакет. В конце хочется напомнить, что нейросетям всё ещё рано безоговорочно доверять. Они ошибаются, фантазируют и иногда удивляют не в ту сторону. Они неплохи, но только как помощники, не более. Алгоритмы могут ускорить рутину, упростить сложное, вдохновиться и сэкономить время. Главное помнить, что за всеми этими технологиями стоим мы. Поэтому доверяйте, но проверяйте. И не забывайте, именно вы направляете всё это в нужное русло! Спасибо, что дошли до конца! А теперь очередь за вами. Расскажите, какие нейросети уже прописались в ваших закладках? И что вы думаете о Perplexity AI? Ждем ваше мнение в комментариях!
13,870
https://habr.com/ru/articles/974038/
habr.com
Привет, Хабр! Хочу поделиться опытом разработки такой системы. Определяющими параметрами проблемноориентированной системы являются: Набор методовфункций обработки и манипулирования данными средства создания функций и написания скриптов, управляющих ходом исполнения Предметная область обработка и визуализация матриц и их последовательностей( стэков ). Методы матричныевекторные операции, линейная алгебра, регрессии, нахождение собственных значений и векторов, SVDразложение ... Система (набор консольных приложений) и библиотека реализованы на JAVA. В качестве скриптов управления первоначально использовались batchфайлы. В последних версиях для этой цели предлагается использовать jjпрепроцессор "javaJAVA" макропроцессор (см.ниже). Приведен краткий обзор создания консольных приложений и описание jjпрепроцессора . Единицей хранения данных считается файл, который может содержать: матрицу, стэк( последовательность матриц"кадров"), несколько стэков. Чтобы матрица была прочитана системой, к ней необходимо добавить заголовок: имя [ M, N, K ] где: Mколичество строк, Nстолбцов, K"кадров" Минимальный заголовок: [] система сама посчитает количетво столбцов в первой строке и количество строк до конца файла или следующего заголовка. Для больших объектов поддерживается бинарный формат. Возможна конвертация CSV файлов в формат. Для вводавывода формата предоставляются библиотеки на JAVA и Python. Методы функции команды системы консольные приложения Все команды системы являются исполняемыми файлами ( .exe в Windows ). Есть несколько команд, которые не являются консольными приложениями, они связаны с графикой: 2d графика на основе JAVA Swing, 3d на базе javaFX . Вводвывод стэков( матрица стэк с одним "кадром") осуществляется в стандартный поток, который может быть перенаправлен в файл или подан на вход следующей команде. Это позволяет объединять вызовы команд в конвейеры ("pipelines"). Во время работы конвейера промежуточные файлы существуют в памяти, но при необходимости их можно сохранять на диске. Команды могут принимать на вход: стандартный поток( std.in ), файлы, параметры. Типичный конвейер : cmd1 a b cmd2 c file cmd3 d d:3 :2 ... cmdN p File где: обозначает стандартный поток: 1й стэк stdin или :1 ; :k kй стэк в stdin ; d:k kй стэк в файле d ; file сохраняет stdout( промежуточный файл ) в файле: save . Набор командприложений не фиксирован. Пользователь может расширять функционал на любом удобном языке программирования. Система представляет собой набор приложений( сейчас 60 ) и библиотеку. Приложение состоит из лончера ("Launch" запускать) и компилированного кода . В лончер записан classpath и параметры запуска виртуальной JAVA машины( options ... ). Все лончеры имеют одинаковый код, который берётся из эталона( размер: 16 kB Windows, 14 kB Linux ). Блок параметров зашифрован и имеет размер 272 байта. Он вписывается в эталон при создании лончера. Дистрибутив содержит только эталон. При установке все лончеры создаются в соответствии с файлом конфигурации за 1 секунду. получение параметров, подготовка их к передаче в приложение ( параметры с пробелами заключаются в кавычки, строится системный вызов JVM ) ; запуск JVM c параметрами: classpath, options ... ; завершение лончера или ожидание завершения приложения( задаётся в конфигурации ). Эта технология оказалась очень удобной. Новое приложениекоманда создаётся вызовом одной команды: crex App .java CR eate EX ecutable App, действия: компиляция Java кода: App.java ( JDK javac должен присутствовать в системе ); запускается программа: _Launch.exe , которая вписывает конфигурацию в эталон ; лончер ( exeфайл ): App.exe сохраняется в текущей директории . На самом деле, можно создать лончер для любой javaпрограммы или нестандартной конфигурации. Описание в файле документации: pik3d_DOC.html. jj препроцессор( "java JAVA" ): App.jj App.java Почти все приложения имеют одинаковую структуру( имя: App для примеров ): " header ": import class App main( arg[] ) " subject ": App ( arg[] ) constructor [additional classes, methods, declarations...] Весь функционал(" subject ") реализуется в двух последних пунктах. Неизбежно приходит мысль о "маленькой" JAVA только " subject " и препроцессоре: " javaJAVA " jj . "header" можно генерировать автоматически на основе имени приложения. App.jj выглядит так: java code " subject " использует arg[] из main() По сути это код конструктора: App( String[] arg ) . При необходимости могут быть добавлены: "сверху" специфический import, комментарии ... а "снизу" nonpublic классы, методы, свойства( возможно static, final ... ) Пример команды, которая порождает стэк (последовательность матриц) в обратном порядке: Reverse. jj : jjпрепроцессор преобразует Reverse .jj Reverse .java : jjпрепроцессор добавляет "header", создаёт класс( App.jj App.java ) с методом: main() и конструктором: App( String[] arg ), строит корректную скобочную структуру: ... и передаёт javaфайл на исполнение. Java исполняет его как "single source file" . Если задан classpath, можно вызвать программу любой сложности( не один файл ). Так как jjпрепроцессор является частью системы, он знает classpath JAVA и библиотек. При вызове JAVA подставляются соответствующие параметры. jjпрепроцессор может исполнять как App.java , так и App.jj ( промежуточный App.java можно сохранить) : jj File.java [ arg0 arg1 ... ] исполнить java программу jj File[ .jj ] [ arg0 arg1 ... ] исполнить jj скрипт ( промпт консоли ) Кроме того, jj умеет исполнять последовательность javaкоманд прямо из командной строки : Последовательность javaкоманд преобразуется в Noname.jj : cmd1 ; cmd2 ; ... а потом в Noname.java и передаётся JAVA на исполнение как "single source file". При необходимости можно задать другое имя javaфайла и сохранить его( ключ: nfile ). Примеры : jj "tt("Hello World !");" tt()System.out.println() jj "for(int i0;i9;i) tt(" i"i)" np123 print i0i1...i8 save: p123.java При вызове: jj App arg0 arg1 ... Аргументы доступны в runtime как: arg[0], arg[1] ... Можно использовать Файл Аргументов ( ФА ), тогда в качестве аргументов будут передаваться строки ФА. Вызов приобретает вид: App File.arg Расширение: .arg обязательно. ФА выступает в качестве конфигурационного файла и может содержать комментарии. ФА может содержать не все аргументы. Например: 5 первых конфигурация, а остальные параметры текущего вызова: App File.arg arg5 arg6 ... Ещё одна важная особенность ФА он может содержать параметры , состоящие из нескольких строк . Это можно использовать при макроподстановке фрагмента кода. Подробнее об этом в файле документации: pik3d_DOC.html . Текст аргументов вызова может быть использован для макроподстановки( МП ). МП заменяет kй макропараметр на текст kго аргумента . Если аргумент отсутствует или пустой, макропараметр заменяется значением по умолчанию( ЗПУ ) или удаляется, если ЗПУ отсутствует. Макропараметр( простой и с ЗПУ): s, s ЗПУ , где: s символ: 0 1 2 ... 9 A B ... Z соответствует номеру аргумента( можно использовать a b ... z ), всего 1026 36. Запрос: ? текст запроса ЗПУ . На консоль выводится текст запроса с указанием ЗПУ (если задан), осуществляется МП введённого текста или ЗПУ( если ввод пустой ). Нужно чётко различать получение arg[ k ] в runtime и МП изменение jjтекста перед компиляцией. МП позволяет менять фрагменты кода. Например подставлять аналитическую формулу функции прямо перед посылкой jjфайла на исполнение. Пример: при построении регрессии можно задать набор функций аппроксимации в командной строке. В стандартный набор системы входят jjскрипты генерации значений функций заданных аналитически: jj Fx "exp(x7)sin(x)" 0,20,.2 vic 1 2,11 генерация значений( Fx.jj ) и отображение Написание системных скриптов со сложной логикой управления для оболочек: cmd и Bash является непростой задачей. JAVA код может оказаться проще и эффективнее. Кроме того он одинаков в Windows и в Linux (за исключением системных команд). Вызову приложения или конвейера в jj предшествует " ": Windows: app1 a0 a1 a2... app2 ... F1 app3 p0 p1 F2 Linux : app1 a0 a1 a2... app2 ... F1 app3 p0 p1 F2 Функции shell оболочек : cmdshell: dir, cd, echo, md, rd, copy, del, ren, type ... Bashshell: ls, cd, echo, cat, cp, mv, rm, mkdir, touch ... вызываются с , пример( создание вектора в формате ): echo [] 1 2 3 4 5 vect jjвызов: cmd1 cmd2 ... конвертируется в java text block: sys (""" cmd1 cmd2 ... """); Команда создания лончера: crex (см.выше) активно использует метод: sys (). crex это скомпилированный jjскрипт, помещён в cmd.jar и вызывается лончером: crex.exe . Сравнение batch и jj скриптов с одинаковым функционалом( но jj можно превратить в eigenV.exe ) : rem file: eigenV.bat file: eigenV.jj stk 77 9 noise ata eig V stk 77 9 noise ata eig V fmt V 1011.5g fmt V 1011.5g fmt V:2 1011.5g fmt V:2 1011.5g eigenV run batchfile jj eigenV run jjскрипт crex eigenV create: eigenV.exe eigenV run лончер Приведен краткий обзор технологии построения проблемноориентированной системы на базе консольных JAVA приложений. Такой подход оправдан при jjпрепроцессор может быть полезен при обучении программированию на JAVA . Система открытая. Скомпилирована JAVA21 с использованием javaFX . Доступны дистрибутивы для Windows и Linux ( протестирована в Linux Mint21 ). Полное описание, demoпримеры, исходники, дистрибутивы.
9,349
https://habr.com/ru/articles/976256/
habr.com
Всем привет, это Stalker320. Я вернулся в сеть и осознав несколько концепций, вернулся с интересным подходом к разработке с использованием Си. Наверное, говорить про ООП в Си это довольно громко, но если отбросить синтаксический сахар, который предоставляет, к примеру, C, то концепция реализуема. Давайте рассмотрим по пунктам и адаптируем под реалии языка Си: Процесс отделения друг от друга элементов объекта, определяющих его устройство и поведение; инкапсуляция служит для того, чтобы изолировать контрактные обязательства абстракции от их реализации. Создание такого отношения между классами (отношение родительпотомок), когда один класс заимствует, а также расширяет иили специализирует (уточняет) структуру и функциональный контракт одного или нескольких родительских классов. В данном примере, мы просто держим ссылку на родительский объект, или, если структура родительского объекта полностью публична, встраиваем поля прямо в код. свойство системы, позволяющее использовать объекты с одинаковым интерфейсом без информации о типе и внутренней структуре объекта. Си не имеет возможности реализовать данный принцип изза отсутствия множества инструментов, вроде шаблонов. Однако благодаря этому предварительная проектировка программы требует понимания необходимых реализаций, что позволяет не тратить время и силы на перепрограммирование (наиболее подходящее слово, несущее смысл overcoding). выделение существенных характеристик некоторого объекта, отличающие его от всех других видов объектов и, таким образом, четко определяя его концептуальные границы с точки зрения наблюдателя. Как пример интерфейса я могу привести лишь такой код: порождающий шаблон проектирования, гарантирующий, что в приложении будет единственный экземпляр некоторого класса, и предоставляющий глобальную точку доступа к этому экземпляру. Как пример, я приведу GLFW, который я повторно реализую, чтоб поделиться понимание принципов работы в общих чертах. В данной статье я привёл довольно много примеров, которые написал во время написания статьи. О различных ошибках при выполнении примеров кода прошу сообщать в комментарии, если они не указаны заранее. P. S. Както мне однажды написали, что массивы существуют физически, а не как ссылка на первый элемент и размер, охватывающий все последующие. Но я нашёл место, где они существуют: в структурах или объединениях(union). Они встраиваются там как поле, поэтому структура берёт их размер как совокупность размещённых подряд переменных.
2,472
https://habr.com/ru/companies/beeline_cloud/articles/975264/
habr.com
Привет, Хабр! Я Владимир Вощук, CEO и основатель ITкомпании и автор медиа « вАЙТИ ». Наша компания прошла через несколько экономических спадов, и ключевой урок, который мы усвоили, заключается в следующем: сокращение бюджета — это не призыв к тотальному замораживанию всей деятельности, а необходимость в стратегическом перераспределении ресурсов. Сегодня я расскажу о системе, которая позволяет определить, какие проекты требуют немедленного «стопкрана», а какие — «зеленого света». Первая реакция на урезание финансирования — заморозить всё и вся. Это опасная ошибка, которая может остановить проекты, находящиеся в шаге от получения дохода. Правильнее действовать как диспетчер в аэропорту: без паники, но решительно переводить одни проекты на паузу, а другим давать приоритет. Для этого нужна четкая система, а не эмоции, которые всегда приводят к потерям. Мы разработали и опробовали на практике систему из трех стратегических фильтров. Если проект не проходит хотя бы один из них, он становится кандидатом на заморозку или значительную паузу. Это самый жесткий финансовый фильтр. Мы анализируем все активные инициативы и задаем ключевой вопрос: приносит ли этот проект деньги прямо сегодня или гарантированно начнет это делать в обозримом будущем? В кризис главный ресурс — время до исчерпания финансовой подушки безопасности. Наш горизонт окупаемости для любых продуктов с длинным циклом сделки сужается до 3–6 месяцев. Прямая выручка. Проект уже генерирует доход или является обязательной частью контракта с ключевым клиентом. Срок монетизации. Ожидаемый срок начала получения первого дохода не превышает шести месяцев. Критическая поддержка. Проект является критическим для удержания крупного платящего клиента (например, обновление безопасности по требованию заказчика). Если проект — это долгосрочная разработка или RD (исследования и разработки) с потенциальной окупаемостью через год и более, его время еще не пришло. Пример из практики. У нас был внутренний проект по разработке платформы для автоматизации сложных бизнеспроцессов. Пилотирование показало, что продукт требует полной переупаковки, что заняло бы еще около 9–12 месяцев и требовало бы существенных инвестиций. При этом гипотеза о его востребованности на массовом рынке не была подтверждена готовыми контрактами. Мы приняли решение приостановить этот проект. Это позволило перенаправить значительные ресурсы на направления, которые приносили стабильный и немедленный доход (например, аутсорспроекты по подписке). Кризис — это не время для экспериментов с непроверенными идеями. Мы оставляем только то, в ценности чего уверены на 100%, подкрепляя это реальными данными и доказательствами, а не красивыми концептами. Проекты с подтвержденным спросом (на основе данных): Есть список клиентов, проявивших активную заинтересованность и готовых к оплачиваемому пилотированию. Есть метрики, подтверждающие, что этот продукт или функция значительно увеличит удержание клиентов или средний чек. Проведены завершенные и успешные MVP (Minimum Viable Product, «минимально жизнеспособный продукт») или пилоты. Есть классные идеи или внутренние прототипы, но нет подтвержденного спроса от внешних клиентов (никто еще не готов за это платить). Ценность проекта оценивается на основе внутренних «хотелок» или моды на рынке. Пример из практики. Перед нами стоял выбор между двумя инициативами: Проект А: доработка интерфейса нашей основной платформы по конкретным запросам текущих клиентов (с платой за доработку). Проект Б: запуск нового мобильного приложения с дополнительной реальностью (AR) для повышения имиджа. Данные были не в пользу «хайпового» Проекта Б: по Проекту А несколько клиентов уже обсуждали условия контракта. По Проекту Б был лишь красивый концепт без гарантированной монетизации. Мы заморозили разработку приложения и направили силы на доработку платформы. Это принесло нам дополнительную выручку и, что важнее, удержало клиентов, которые иначе ушли бы к конкурентам. Даже самый перспективный проект обречен, если за ним не стоит сильная и сфокусированная команда с нужными навыками. В условиях нехватки ресурсов отсутствие одного ключевого специалиста или слабая продуктовая экспертиза может превратить инициативу в черную дыру, высасывающую время и деньги. Отсутствие ключевой экспертизы. Проект требует редких компетенций (например, специалиста по машинному обучению или глубокой интеграции с устаревшими системами), которых нет в штате. Наём такого специалиста дорог и долог. Слабая продуктовая роль. Команде не хватает сильного продактменеджера, который бы контролировал создание ценности. Это грозит созданием никому не нужных функций (согласно «Фильтру 2»). Риск технического качества. Отсутствует старший (senior) специалист, способный проводить архитектурный обзор кода и контролировать техническое качество, что ведет к лавинообразному росту технического долга. Если проект имеет высокую потенциальную ценность, но его реализация требует немедленного найма дорогих и редких специалистов, его следует поставить на паузу до момента стабилизации бюджета. Пример из практики. Мы свернули один из проектов, который требовал глубокой компетенции по работе с нейросетями. На тот момент такого эксперта в команде не было, а привлекать его извне было дорого и долго. Эта «точка отказа» ставила под угрозу весь проект. Его заморозка позволила освободить других разработчиков и перебросить их на более приоритетные и реализуемые задачи. Принцип «сократить всё, что не приносит немедленной выручки» имеет одно важное исключение. Есть ряд проектов и активностей, которые необходимо поддерживать даже в условиях жесткой экономии, поскольку их остановка может привести к катастрофическим последствиям или потере всего бизнеса. Безопасность и защита данных (Security). Всё, что связано с защитой критических данных клиентов и компании, предотвращением атак и выполнением стандартов безопасности. Несоблюдение этих норм ведет к штрафам, потере клиентов и репутационному ущербу, который значительно превысит сэкономленный бюджет. Критическая стабильность основных систем (Core Stability). Поддержка работоспособности тех систем, которые непосредственно генерируют выручку. Если система оплаты или основной продукт работает нестабильно, это равносильно потери дохода. Здесь необходимо поддерживать минимальный ресурс для устранения сбоев и предотвращения падений. Регуляторное соответствие (Compliance). Все проекты, связанные с изменениями в законодательстве, налоговыми требованиями, обработкой персональных данных. Невыполнение законодательных требований ведет к немедленным штрафам и риску закрытия бизнеса. Заморозка — это не приговор. Это консервация до лучших времен. Проект должен быть остановлен так, чтобы к нему можно было вернуться без потерь и больших затрат на восстановление контекста. Полная документация и фиксация состояния. Обязательно фиксируем текущее состояние: Код: отдельная ветка в репозитории с пометкой [FROZEN YYYYMM]. Архитектура: фиксация всех архитектурных решений и зависимостей. Главное — причина остановки: четкое описание, какой именно фильтр проект не прошел (например, «Не подтвержден спрос», «Нет ресурса MLспециалиста»). Сохранение морального духа команды. Сотрудники, чьи проекты замораживаются, не должны чувствовать себя проигравшими. Важно открыто объяснить стратегическую причину решения (например, фокус на удержании клиентов, а не на RD) и перевести их на критические для компании задачи, где их вклад будет виден и значим. Главный ресурс компании — это люди, и их мотивация в кризис должна быть приоритетом. Искусство управления в кризис — это искусство осознанного выбора. Невозможно тащить всё, но и останавливать всё подряд — путь в никуда. Жесткая, но прозрачная система приоритизации, основанная на трех фильтрах (срок окупаемости, подтвержденный спрос, наличие команды), позволяет без сожаления освободить руки от всего лишнего и сконцентрироваться на том, что гарантированно принесет компании результат. Такая перезагрузка не только помогает пережить сложные времена, но и выйти из них с более сильной и сфокусированной командой. вАЙТИ — DIYмедиа для ИТспециалистов. Делитесь личными историями про решение самых разных ИТзадач и получайте вознаграждение. IBM WebSphere. С чего начать побег в мир open source Как организовать единый вход между IBM WebSphere v.7 и новым ПО на период миграции Пулинг объектов в .NET Показываем примеры использования ObjectPool, ArrayPool и вариант кастомного пула объектов, а также небольшой бенчмарк Инструменты аналитика, которые будут полезны разработчикам: что стоит знать и использовать Несколько полезных программ и навыков, которые облегчают чтение документации Как мы создали нейросеть для определения возраста Рассказываем про сбор датасета, тестирование модели и полученные результаты Создали лабораторию для дорог: научили ИИ читать ГОСТы и проверять бетон Компьютерное зрение, распознавание речи и интеллектуальный ассистент в помощь специалистам, которые следят за качеством дорожных работ Как мы построили продукт на open source: опыт разработки системы видеоаналитики Рассказываю, как мы сделали систему видеоаналитики на базе открытых библиотек компьютерного зрения и ML
9,143
https://habr.com/ru/articles/974736/
habr.com
Рынок найма в последнее время напоминает войну. Кандидат видит идеальную вакансию и использует любые способы стать заметнее для эйчара. Эйчар открывает идеальное резюме и думает, что ему врут. И вот два совершенно нормальных человека уже смотрят друг на друга с тревогой. А рядом стоит ИИ — инструмент, который должен был упростить поиск работы и найм сотрудников, но усилил напряжение между сторонами. Привет, я Лена — HR. Из этой статьи вы поймете, почему резюме от ИИ не помогает найти работу, почему от автооткликов лучше отказаться и для чего эйчары переспрашивают информацию из вашего резюме. А я спрятала незаметные советы в статье, связанные с резюме) Нейросети словно стали новой религией. И если ты до сих пор в нее не обратился — ты чтото делаешь не так в своей жизни. Необходимость нейронок так навязали, что мне уже даже стыдно: ведь я все еще просматриваю отклики вручную и сама расписываю вакансии. Но, может, именно поэтому я вижу, скольких соискателей ИИшка уже завербовала? Недавно я искала разработчика в команду и получила около 400 откликов на вакансию. Лишь 40 человек — это те, с кем потенциально можно начать диалог. Это не идеально подходящие резюме, а те отклики, где необходимо еще чтото уточнить: у когото не указана зарплата, неполный, плохо расписанный или «рваный» опыт, гдето не хватает важных деталей. И вот среди этих же 40 — каждое четвертое резюме создано нейросетью. Одинаковые формулировки достижений, шаблонный опыт, клоновая структура. Даже раздел «о себе» заполнен по какомуто шаблону. Красиво, но за этим текстом пустота. Я обращаю внимание на каждую строчку и часто нахожу несостыковки. Например, кандидату 21 год, а опыт — пять лет. Или проект, который по масштабу тянет на команду, почемуто стал достижением одного человека. А потом этот человек на собеседовании про проект ничего толкового и ясного рассказать не может. Вот в чем фокус: чем больше человек старается выглядеть «профессионально», тем незаметнее он становится. У ИИ одинаковая логика, однотипные формулировки — он стирает индивидуальность и подгоняет ее под свой шаблон. И я понимаю, откуда это стремление к «безупречному резюме». За ним стоит обычный человеческий страх: быть тем, кому не ответили, кого проигнорировали, кого забыли после финального интервью. Поэтому кажется, что ИИ станет пропуском в нормальную жизнь: нормальную работу, нормальную команду, нормальное отношение. Как будто ИИ знает больше. Дружить с нейросетью нужно, но точно не вместо людей. Рынок найма сейчас напоминает войну между эйчарами и соискателями. Каждое действие одной стороны выглядит как выпад против другой. Возьмем, к примеру, ситуацию с автооткликами. Для кандидата это нормальный способ повысить свои шансы: не будешь откликаться — не будут приглашать. Вроде бы логичная стратегия. Но есть проблема: автоотклики не показывают заинтересованность в конкретной компании. Когда человек сам проходится по тексту вакансии, изучает тон, требования, задачи, он понимает, подходит ли ему эта история. ИИ же ищет лишь формальный мэтч по словам. Он не чувствует вайб компании, тональность, не видит контекста. А ведь именно так мы находим «своих». В результате получается парадоксальная ситуация: откликов становится количественно больше, а реально заинтересованных и подходящих кандидатов — меньше. Но ни кандидаты, ни эйчары не виноваты. Система перегрелась. Требований много, конкуренции еще больше, а онлайнпроцессы стирают индивидуальность. Каждый злится посвоему. Кандидаты иногда не понимают, зачем нужен эйчар и почему нельзя сразу поговорить с руководителем — эйчар же все равно не разбирается в коде. Но моя задача как HR шире, чем просто фильтровать резюме по ключевым словам. Я должна смэтчить специалиста и компанию. Мэтч рождается на стыке реального опыта будущего сотрудника и предоставляемых возможностей компании. Если пересечений нет — ни громкие имена работодателей, ни идеальное резюме, ни набор правильных слов не помогут. Мне нужно понять, впишется ли человек в команду, задачи, процессы, динамику. Соискатели не понимают, почему им не отвечают и усиливают оборону: шлифуют резюме, добавляют ключевые слова и ищут волшебный шаблон. Вот она — точка столкновения. Кандидаты используют нейросети, чтобы пройти ИИфильтры. HR используют те же ИИфильтры, чтобы разгрузить поток. А цельто у всех одна и та же — быть услышанным. Кандидат хочет, чтобы заметили его реальный опыт и мотивацию. HR — чтобы в команде оказался человек, который сможет работать долго, эффективно и без надрыва. Мой главный инсайт за последние полтора года: ИИ не умеет скрывать реальный уровень. Он может приглушить индивидуальность, сделать текст ровнее, спрятать живые детали, но не способен из пустоты создать глубину. ИИ работает строго по ТЗ. Если в резюме «накрутка» — накручено было еще до нейросети. Например, кандидат рассказывает в резюме о крупном проекте, на котором все сделал сам. На созвоне вроде спокойный, собранный, но в голосе есть эта характерная растерянность — будто он впервые слышит о собственных достижениях. И не изза того, что он врет. Просто нейросеть дорисовала то, чего не хватило, и теперь человеку нужно догонять свою же биографию. А бывает наоборот. Человек приходит с обычным резюме, без огоньков, без суперсил. Просто перечисляет навыки, без украшений. Задаешь вопросы, а он объясняет так уверенно, так структурно, так поделовому, что сразу становится понятно — надо брать. ИИ помог увидеть еще одну закономерность. Люди, которые создают слишком идеальный образ, редко выдерживают в нем долго — приходится быть тем, кем не был. Это морально тяжело, поэтому такие кандидаты выгорают через четыре–шесть месяцев — тогда, когда уже невозможно поддерживать образ. Знаете, что отличает специалиста от простого набора слов в шаблоне? Подлинная мотивация, живая логика решений, умение рассказывать о своей работе, понимать контекст задачи. Вот что самое ценное и вот что ни одна нейросеть не сможет написать за человека.
5,926
https://habr.com/ru/companies/oleg-bunin/articles/964080/
habr.com
С выгоранием сталкивались многие, и зачастую даже отпуск не спасает. В интернете много информации о выгорании конкретного человека, но почти никакой о том, как выгорают команды и что с этим делать. Привет, Хабр! Я — Алеся Бикбулатова, руковожу отделом обучения ITхолдинга ICL. А ещё я психолог и КПТтерапевт, преподаю в Вышке и Иннополисе. Кроме своей насмотренности в HR, я вижу немного глубже ситуацию с выгоранием и больше знаю о внутренних процессах в выгорающих командах. Сегодня постараюсь поделиться практической пользой. Эта статья основана на моём докладе для Saint TeamLead Conf . Основная проблема в том, что очень сложно оценивать выгорание всех членов команды по единым критериям. Так как у каждого свой бенчмарк нормы, а мы при выгорании смотрим на отклонение от стандартного поведения. В этом и состоит сложность для тимлида — отслеживание динамики разных людей. В вопросах выгорания всегда лучше работать с профилактикой. Универсальным инструментом для всей команды может быть закрытие мотивационных потребностей по модели SCARF от Дэвида Рока, опирающаяся на нейроисследования работы мозга. SCARF состоит из пяти основных факторов. Они сложились эволюционно и есть у каждого из нас. Это относительная важность для других, необходимость чувствовать себя «не хуже, лучше». Самый сложный фактор. В древнем сообществе статус давал человеку еду, хорошую пещеру, возможность к размножению и так далее. Этот фактор сильнее всего эволюционировал, потому что айтишника за еду не купишь. Вам нужно понимать, что такое статус для каждого человека: для когото это достижения, для другого деньги, для третьего должность или сложные интересные задачи, возможности, бренды. Речь идёт о необходимости быть уверенным в своем будущем. Этот фактор сейчас страдает у всех. Сомневаюсь, что ктото может сказать, что живёт в стабильности. В этом случае подразумевается необходимость контролировать среду и события, принимать самостоятельные решения, делать выбор. Право решать, иметь свою территорию. Необходимость чувствовать себя в безопасности при взаимодействии с другими — это история про команду. Для многих из нас важно, в какой команде и атмосфере мы работаем — токсики вокруг или дружный коллектив. Здесь мы пониманием необходимость чувствовать справедливость в обмене между людьми. Вам с командой прилетает задачка, и вы думаете: «Почему мне? У меня и так много, а у Васи меньше». Или: «А это вообще не входит в пул моих задач». Это сработал фактор справедливости. Для меня в работе он один из самых сложных, так как справедливость у каждого своя, и эти линеечки часто не совпадают. Если вы команду по какимто причинам лишите полностью одного из этих факторов, у вас начнутся проблемы с выгоранием. Но для каждого человека рейтинг этих факторов будет разным. Я бы хотела обратить внимание на то, что часто существуют мифы, например, будто есть слабаки, которые выгорают, а есть супергерои. Миф 1: выгорание — проблема отдельных сотрудников. Конечно, выгорание бывает обусловлено индивидуальными особенностями, но очень часто — это системная проблема. Потом происходит эффект домино — люди начинают заражать друг друга. Рассмотрим на примере ещё одной истории, но которая закончилась хорошо. Чуть больше года назад я брала сотрудника — Арина показала запрос на огромную автономию. Уже на этапе адаптации я старалась дать ей большую свободу. На третий день она пришла и сказала: «А можно мне весь спектр моих задач еще раз посмотреть, и я бы сама составила себе программу адаптации?». Я работаю с ней больше года и она прекрасный сотрудник, но порой мне хочется уберечь её от какихто ошибок. Если я это сделаю, сотрудник демотивируется. То есть мне проще дать ей гдето ошибиться. Для любой команды очень важно учитывать особенности сотрудников. Миф 2: выгорание — только изза перегрузки. Как человек, который работает как раз с этой проблемой в командах скажу, что это даже меньше половины случаев и часто не единственный фактор. Всё, что лишает людей ключевых мотивационных факторов, может привести к выгоранию команды. Например: Миф 3: достаточно отпуска, чтобы решить проблему. И сразу вопрос: на какой день после выхода из отпуска вы чувствовали, будто не уходили? Вывод — это не спасает. Нужно каждым днём управлять в загрузке, в состоянии человека — тогда с ним будет всё ОК. Приведу самый грустный кейс, где человек совершенно выгорел, и мы его отправили в отпуск. Перед Новым годом у нас сгорел BDM, и его отпустили на два месяца. Но когда я услышала, что он уехал в Таиланд, я сразу сделала выводы. Такой отдых — это дополнительная нагрузка для мозга. Так как это новая страна, условия, ситуации — ничего хорошего из этого не будет. Он уволился через две недели после того, как вернулся и честно сказал: «Не хочу открывать ноутбук, не могу себя с утра заставить это сделать». То есть, человек сгорел. В ситуациях позднего выгорания хороших сценариев почти не бывает. Маловероятно вытащить человека из ямы, чтобы он потом стал эффективным сотрудником на этом же месте. Или рассмотрим другой кейс. Ко мне как к HR часто идут люди просто поплакаться. Както приходит классный аналитик, которого перекидывали с одного проекта на другой, где надо чтото срочно спасать, и говорит, что планирует подыскивать новую работу. «Вопервых, меня все время кидают с проекта на проект. Вовторых, я работаю за троих и очень устала. И вообще кажется, что то, что я делаю, уже никому не нужно», — сказала она. Здесь слышатся сразу три проблемы: «устала», «не вижу результатов своей работы», и постоянные переключения. Вернитесь к SCARF — увидите, по каким факторам это бьёт. Но здесь надо разбираться, что самое главное. Конкретно для этого человека оказалось важным, что не он видит результатов. Это история про статусность. Миф 4: выгорают только слабые сотрудники. В основном выгорают больше и чаще перфекционисты, гиперответственные, которые: «Я могу, ещё немножко, и ещё смогу!», а потом уже всё. И в какойто момент уже ничего мы сделать с этим не можем. И да, не все сотрудники будут говорить о своих проблемах. До 2030 года 50% рынка будут состоять из зумеров: они любят и могут говорить о своём ментальном здоровье, границах, о том, что они устали. Это вопрос к тому, чтобы вы не заваливались в другую сторону, и ваши апдейты и стендапы не превратились в психологические долгие консультации. Но следить за этим нужно. У меня есть классный яркий кейс, когда команда работала с очень душным заказчиком. Он не матерился, не кидал кружками, не орал, а просто всё время вносил правки. Если вы знакомы, с такой методологией как DISC, в рамках которой достаточно просто типируются сотрудники и определяются их особенности, то это человек с высоким фактором С (всегда соблюдает правила, очень внимательный к деталям, не допускает ни малейших отклонений и меряет все своей линейкой стандартов). Команда сгорела, а руководитель не заметил. Если бы были какието яркие ситуации, скорее всего, команда пришла с жалобой, а тут говорить было не о чем — вроде конструктивные замечания, но просто бесконечные. Поэтому если команды не жалуются, это не всегда значит, что всё отлично. Для руководителя не всегда понятно, как работать с эмоциональным истощением. Многие замечают выгорание на стадии апатии, а это уже поздновато. Первая стадия наоборот отличается гипероптимизмом и инициативностью. На это нужно точно обращать внимание, особенно если это динамическое изменение. Неадекватный оптимизм: «У меня уже три задачи, а я готов ещё взять четвёртую». У нашей психики есть внутренний механизм, который отвечает за наши границы. Он видит, что мы можем, сколько нам времени на это нужно, управляет ресурсами, но в какойто момент ещё просто отвечает за внутреннего ребёнка. Когда у вас какаято травма или вам очень плохо, он перестает адекватно работать, не видит реального объёма. Когда человек перегружен — а это же когнитивная нагрузка, — мы выгораем не физически, а именно от работы мозга, тогда этот механизм ломается. А ещё человек становится недоволен собой, своими результатами. Он хочет в этот момент чтото сделать, чтобы почувствовать себя лучше, а свои силы адекватно не оценивает. Как это увидеть? Если у вас есть постоянные апдейты — например, человек не успел, дважды перенёс задачу, а при этом вы ещё видели неадекватный оптимизм, то скорее всего это оно. Снижение вовлечённости. Это тоже не всегда заметно, особенно если у вас команда, общие апдейты, они онлайн и без видео. Но если замечаете, что человек раньше был гиперактивный, а сейчас перестал хватать все задачи подряд, то он перешёл на следующую стадию. Увеличение числа ошибок и снижение продуктивности. Если вы управляете результатами в своей команде и вы видите эффективность людей, то на этом этапе заметите, что у человека ошибок стало больше, тикетов выполняется меньше, ещё чтото в зависимости от специфики вашей команды, т. е. у него упала продуктивность. Эти стадии уже видно, вы их замечаете. Усталость и апатия. Понедельник — хороший индикатор, даже просто по выражению лица в понедельник это видно. Кто сам выгорал, тот знает, что в воскресенье вечером ты очень хорошо это чувствуешь. Негативные настроения. Индикаторы — соцсети, мемы в чатах и комментарии. Однажды случился просто пугающий кейс. В моей команде была очень религиозная женщина, всегда супервежливая со всеми. В соцсетях показывают перекрестные видосы тем, кто лайкнул, и там я была чернуха — коллегикрысы и т.п. Это была уже поздняя стадия выгорания, которую никто в своё время не увидел. Изоляция. Дальше уже простая психоэмоциональная реакция: Хочу, чтобы меня никто не трогал». Человек старается всячески закрыться и спрятаться, потому что у психики мало ресурса, включается режим выживания. Физические признаки стресса. Мое любимое — больничные и иже прочее. Например, у меня меньше ментальных проявлений — сразу идёт на физические. Просто мой мозг понял в какойто момент, что если ты заболел, то можешь официально не работать! Я подготовила небольшой чеклист для выявления выгорания в команде. Дело в том, что мы все разные. Например, к созвону подключился человек в мятой заляпанной футболке — это признак выгорания или нет? Если он всегда такой, то, конечно, нет. Но если он всегда был причёсанный, приглаженный — конечно. Руководителю сложно отследить эту историю за целой командой . Поэтому в чеклисте тоже есть пункт про динамику. Руководитель своим вниманием может охватить не более семи сотрудников, плюсминус 2. А если у вас больше, что делать? К сожалению, управлять качественно командой больше, чем из семи человек вы не сможете, надо менять модель управления. Вопрос: с какими сотрудниками вы чаще всего разговариваете? Если команда большая, чаще руководители проводят 1:1 с теми, у кого есть проблемы, или с теми, с кем приятно общаться. Те, кто стабильно работает и даёт хорошие результаты, выпадают из поля зрения руководителя — конечно, если 1:1 не системные (нерегулярные). А потом они неожиданно приносят заявление об уходе. Это как раз зона большого риска. Итак, что нам важно знать про сотрудников, чтобы профилактически работать с выгоранием: Я уже привела примеры, как можно с этим работать, здесь это повторяется. Есть классная упрощённая штука про мотивацию. Она про стек задач. Если человек занимается тем, что ему не нравится, это кончится выгоранием или увольнением. Если в команде по какимлибо причинам поменялся стек задач, или, например, запускали проект, а потом он пошёл на поддержку, то часто идёт обновление части команды. Потому что есть люди, которые не могут работать с такими задачами. Здесь мы выясняем на 1:1 не «как дела». Я много вижу встреч, когда мы вроде поговорили о чёмто, и в этот момент руководитель пытается какимто волшебным образом вычислить, что с человеком происходит. На самом деле нам нужно выявить всего три блока: Хочу. Это задачи, которые человек хочет делать. Тут могут быть разные вопросы: «Какие задачи понравились? Расскажи, какой проект вдохновил? А что бы ты хотел повторить?» и так далее. Надо. Как мы подходим к задачам, которые надо сделать, но не хочется? Наш мозг работает как инвестор: он считает положительные и отрицательные импульсы. Например, в ситуации, когда ему проводят красивую презентацию, а потом называют цену, у него сначала активируется зона удовольствия, потом зона боли, и мозг просто сравнивает импульсы. С работой примерно то же. Если задач из блока «надо» становится больше, это будет как раз история про эмоциональное истощение. Могу не могу. Этот блок не совсем относится к выгоранию, но может повлиять. Это история про «У меня нет какихто доступов, у меня нет какойто экспертизы, мне сложно с какимито задачками, с кемто не получается договариваться» и т.д.. Здесь как раз наша зона как руководителя, где мы можем чемто помочь человеку. Часто сотрудники не любят ретроспективы, но либо так, либо както иначе надо авторизовывать результаты. Когда мы сами одну задачу сделали, ктото устраивает перекур, ктото себя хвалит, но чаще всего следом хватаешься за другую, и вот у нас день сурка. У сотрудников так же. Ретроспектива отчасти эти вопросы решает. Я дам пару инструментов, а потом расскажу про ошибки, которые часто делают тимлиды. Эта техника может быть в разных формах. У вас может быть миниопросник для команды, вы можете просто с ними об этом разговаривать. Есть команды, где обмениваются мемчиками. А есть такие команды: «Мы что, дети что ли, мы так не делаем». Тогда чтонибудь серьёзное придумайте. Но суть должна быть именно такая. Этот метод очень классно работает на большие команды. Например, у нас есть техника «Светофор», когда человек своё состояние определяет как зелёное, жёлтое или красное. Это очень хорошо показывает системные проблемы. Вы прямо видите, как у вас краснеет эта история, и сразу бежите разбираться, что там происходит. Это маленькие перерыы в процессе — например, просто подышать. Я обожаю «Детокс задач», потому что в последнее время у нас не вопрос приоритетов, а вопрос, от чего избавиться. Вы свою команду и себя приучаете периодически чистить не нужные задачи. Очень хорошая штука, рекомендую. Учите команду, чтобы они тоже умели правильно дышать, выпить водички, замечать, когда у них снижаются когнитивные способности и нужно прогуляться пять минут подышать. Корневая проблема чаще всего одна: лечить без диагноза. Первая реакция на выгорание команды — это вывод о том, что люди устали. Выгорание от перегруза составляет меньше половины случаев. Вообще люди классно работают на высокой интенсивности. Да, там должны быть паузы, но когда всё идёт очень плавно и есть недогруз – это тоже плохо. Попытка «развеселить» команду. «Все дохлые — пойдёмте на корпоратив!». Некоторых очень раздражают такие истории. Представьте себе человека на финальной стадии выгорания, он ничего не хочет, и для него это — трата ресурса. Снижение нагрузки без устранения причин. Здесь всё понятно — если не знаете признаков, лечите то, что болит, а не просто «давайте всех разгрузим». «Мотивационные» разговоры без действий. «Мы всё сможем, сейчас прорвёмся! Мы справимся! Это временные трудности!». А потом треть команды увольняется. Навязывание «позитивного мышления». «Что вы такие негативные, всё время на чтото жалуетесь. У меня такая команда, всё время жалуются». Наверное, есть причины — давайте их искать. Как человек, который занимается обучением, я очень люблю тренинги. Но, вопервых, учиться тяжело, это трата ресурсов. Вовторых, это может вообще не решить проблему. Поэтому не надо организовывать ненужных тренингов. Увеличение «гибкости» графика без рамок. Гибкость графика, удалёнка и так далее — это вообще зона риска. У меня есть очень грустный кейс с сотрудником, у которого было СДВГ. Не все СДВГшники такие, но в данном случае надо было человека максимально держать в рамках. А ещё человек, если потерял вот ощущение работы и отдыха, работает из дома, а ему дали гибкие графики, у него всё превращается в вечную работу. Игнорирование индивидуальных потребностей. Здесь возвращаемся к модели SCARF и тому, о чём я говорила выше: учитывайте индиуидвальные потребности ваших сотрудников. Попытка «разделить ответственность» за проблемы. «Вы сами должны заботиться о своём балансе. Это ваша задача — сказать НЕТ». Сейчас таких менеджеров всё меньше, но среди управленцев старой школы и сильных руководителей очень много слышу историй про «Это его проблемы, пусть сам с ними работает». На самом деле, это не так. Слишком резкие изменения в рабочем процессе. Если вы поняли, что команда горит, не паникуйте сами. Приведу пример, правда, не совсем про выгорание. Во время ковида руководитель говорит: «У нас всё поменялось, будем теперь работать подругому». Что происходит для команды, когда меняется процесс? Стресс, дополнительная нагрузка. У человека и так когнитивные ресурсы на пределе, а вы ещё ему в девять раз больше нагрузки закинули, потому что делать чтото новое для мозга сложнее, чем работать по привычному алгоритму. Многие из нас выгорали, я тоже. Бывает не просто выгорание, а именно управленческое выгорание. Поэтому давайте смотреть сначала на себя, потом на команду, иначе будем принимать не самые адекватные решения. Принципы те же — отпуск вас не спасёт, только работа с текущей нагрузкой и с ситуацией. Разберёмся, изза чего чаще всего выгорают сами тимлиды. Распространённые варианты: Если вы — начинающий тимлид, то всё понятно. Если нет, то нужно научиться как можно быстрее делегировать. Разница между простым специалистом и руководителем в функционале в том, что у управленца больше ответственность и больше стресса от принятия решений. А ещё этот бедолага живёт в двух ролях, иногда в трёх — совмещает в себе функцию руководителя команды, и при этом погружён в технические процессы. Ему нужна большая поддержка от выгорания. Диагностика. Нужно понять, что с вами происходит. Можно подумать, после каких задач вам хочется умереть, после каких ещё ничего, а перед какими хочется. Поработайте с этим, разберитесь, что не так. Здесь важно здоровье, проверяйте дефицит витаминов, гормонов, обращайте внимание на то, как вы спите. Вообще ничего не поможет, если вы недостаточно спите. Авторизация результатов. Наверняка многие чувствовали себя неловко: «Не я же это сделал, это команда сделала». Авторизовать результат управления очень сложно. Есть счастливчики — например, повара или парикмахеры, — которые сразу видят результат своей работы. А есть руководители, тимлиды — там сложнее. Делегирование. Суперпроблема — руководитель не делегирует все задачи, которые может. Есть очень простой метод: выпишите все свои задачи и разбейте их на три группы: можно делегировать, под вопросом и нельзя. Всё, что можно делегировать, делегируйте в течение первой недели. Кратко — сон и анализы. Если есть какието дефициты, вы можете как угодно с собой договариваться, работать не будет. Поэтому здоровье чекапим время от времени. Что вас заряжает и что разряжает? Выбирайте всё, что хотите, но выясните, что подходит именно вам. Пожалуй, единственное, что работает на всех — это дыхание, чистая физиология. Очень долго к медитациям относились как к чемуто волшебному, но сейчас научно доказано, что расслабление и степень управления концентрацией внимания напрямую связаны с выгоранием. Когда мы делаем вдох, мы чутьчуть напрягаемся, а на выдохе — расслабляемся, потому что активируется симпатическая или парасимпатическая система. Соответственно, чтобы расслабиться, надо сделать выдох. А ещё можно просто подышать, когда выдох становится долгим — например, вдох на 4, а выдох на 8. Попробуйте! Но нужна тренировка, как и для когнитивных функций. Десятиминутная медитация не просто сделает вас спокойным. Это конкретный механизм мозга, который дает больше люфта в стрессовой ситуации, и вы спокойнее на неё реагируете. У вас есть больше времени для выбора реакции. Надеюсь, сегодня хотя бы чутьчуть смогла вам помочь с инструментами, которые работают с целой командой. А ещё больше концентрации тимлидского опыта на человекочас и квадратный метр бывает в Питере только один раз в год. Не пропустите конференцию TeamLead в СанктПетербурге в следующем году! И подписывайтесь на наш блог — здесь будет много по теме.
19,989
https://habr.com/ru/articles/974008/
habr.com
Я заметил, что в сообществе FPGA многие задают вопросы, которые можно решить с помощью DMA. Сделал поиск по Хабру в поисках чистых статей о том, как запустить DMA и не нашел таких. Поэтому решил в этой статье собрать свои знания в кучу и показать, как пользуюсь DMA . Это будут чистые примеры, без лишней информации, также будут сравнительные тесты разного характера. Начнем с определения DMA . DMA (Direct Memory Access) — это механизм, который позволяет периферии напрямую читать и записывать данные в память без участия процессора. Проще говоря DMA берёт на себя грязную работу по перекачке данных, освобождая CPU для полезных задач. Из этого термина сразу вытекает ответ на вопрос «А когда мне нужен DMA в проекте?»: он нужен тогда, когда стоит вопрос передачи большого объема данных, особенно если эти данные будут поступать постоянно и на большой скорости. Если открыть IP Catalog, то можно увидеть, что DMA бывают разные: В рамках этой статьи нас интересует только AXI Direct Memory Access. К тому же работал я только с ним. Данный модуль является достаточно универсальным инструментом, с учетом внутренних настроек. Enable Asynchronous Clock этот параметр всегда серый, и я не знаю когда он включается, а так же не понимаю его смысла, ведь у DMA каналы для чтения, записи и управляющий интерфейс имеют разные клоки, видимо функция включена. Enable Scatter Gather Engine – это более сложный режим работы DMA , к тому же имеет больше гибкости в работе. И в рамках этой статьи я не буду использовать этот режим. Именно изза этого у названия статьи есть приписка «Simple Mode». Enable Micro DMA – это опция для упрощённого режима работы при передачи пакетов до 8 слов. Я им никогда не пользовался и дать оценку насколько этот механизм хорош не могу. Enable Multi Channel Support – этот параметр доступен только при включенном SG режиме. Отвечает за количество каналов работы DMA. Изменяются не физические интерфейсы, а добавляются такие сигналы как tdest и tid в AXIStream интерфейсах. Enable Control Status Stream – без SG режима не доступен. Не пользовался и не знаю, что дает. Width of Buffer Length Register – это разрядность счетчика байт размера передаваемого пакета. Я не понимаю в каком случае может понадобится его уменьшать или увеличивать, но на первых порах всегда спотыкался на том, что забыл изменить значение на нужное. И как итог DMA зависал. Enable Read ChannelEnable Write Channel – это включение каналов работы DMA. В случае для чтения это будет канал «памятьпоток», в случае записи это будет «потокпамять». При включении и отключении галочек будут включаться нужные интерфейсы. Number of Channel – количество каналов, так как режим SG выключен то разное количество каналов не доступно. Поумолчанию всегда 1 канал на интерфейс. Memory Map Data Width – разрядность шины данных интерфейса, которые смотрят в адресное пространство, это M_AXI_MM2S и M_AXI_S2MM. Stream Data Width – разрядность шины данных потоковых интерфейсов, это S_AXIS_S2MM и M_AXIS_MM2S. Этот параметр как и параметр выше стоит выбирать исходя из здравого смысла. Если во всей системе стоит ширина данных 32 бита, то при увеличении разрядности в самом DMA вы не получите прирост скорости. Тут нужно считать пропускную способность интерфейсов с учетом того, что интерфейсы MemoryMap имеют небольшие просадки в пропускной способности в сравнении со Stream интерфейсами. Max Burst Size – Максимальный размер передаваемой порции в адресном пространстве. Как правило это размер в словах. Пока этот размер данных не будет записан или прочитан, другие мастеринтерфейсы не смогут обратиться к памяти. Allow Unalligned Transfers – Разрешает использовать не выровненные адреса. Всегда включаю этот параметр. До конца так и не понял, когда требуется отключать данный режим работы. Enable Single AXI4 Data Interface – объединяет Мастер интерфейсы для обращения в адресное пространство (M_AXI_MM2S и M_AXI_S2MM), в один интерфейс. В целом это удобно, разгружает интерконнект, но я все равно этим не пользуюсь. У модуля DMA, в данном режиме, есть три сигнала для тактирования интерфейсов: s_axi_lite_aclk – используется для тактирования интерфейса S_AXI_LITE. Он предоставляет доступ к внутренним регистрам DMA. m_axi_mm2s_aclk – используется для тактирования связки интерфейсов «памятьпоток» (M_AXI_MM2S и M_AXIS_MM2S). m_axi_s2mm_aclk используется для тактирования связки интерфейсов «потокпамять» (M_AXI_S2MM и S_AXIS_S2MM). Стоит отметить, что в даташине на модуль упоминается следующее: частота тактирующего сигнала s_axi_lite_aclk должна быть меньше или равна минимального значения между m_axi_mm2s_aclk и m_axi_s2mm_aclk. Короткий пример: допустим есть частоты m_axi_mm2s_aclk100МГц и m_axi_s2mm_aclk125МГц, то s_axi_lite_aclk должен быть 100МГц. Из практики скажу, что если уж началось разделение клоков в проекте, то таким управляющим шинам как AXI4_Lite зачастую подаю меньшую частоту, чтобы синтезатор не страдал при сборке. К тому же, общение через этот интерфейс происходит только в начале инициализации и запуска, а затем периодический опрос статуса DMA. В своих проектах часто использую вариант, когда все клоки одинаковые и запитаны от одного источника. Разумеется, речь про три клока DMA, а не весь проект. DMA умеет генерировать два прерывания, для канала «памятьпоток» и «потокпамять». События для этих каналов настраиваются в регистрах самого DMA. Много рассказать про прерывания не смогу, сам использовал только прерывание по завершению передачи пакета. Так как в этом режиме у DMA отсутствует циклический режим работы, то по завершению передачи транзакции, его необходимо перезапустить и тут есть два пути решения. Либо в процессорной части бесконечно ждать освобождение канала (есть такой флаг), либо взвести прерывание. В случае если идти вторым путем, то в обработчике прерывания важно сбрасывать флаг прерывания внутри DMA. Для очистки прерывания «завершение передачи» это 12 бит регистров MM2S_DMAS и S2MM_DMAS (зависит от канала), просто записываем число с единицей в 12 бите(0х0001000), чтобы очистить флаг. Кратко пробегусь по тому как настроить прерывания. Пример ниже рабочий. Подключаем в проект AXI Interrupt Controller как на скрине ниже: Настройки оставляем базовыми, меня ни чего не нужно: Хочется отметить некоторые особенности работы DMA, с которыми я столкнулся. У входного AXIStream интерфейса имеется буфер в 4 слова. В него можно записать независимо от того нестроен DMA или нет. Поэтому нужно учитывать, что в буфере могут быть мусорные данные. А также это может создать иллюзорное мнение, что запуск DMA произошел раньше, чем прошла его инициализация. DMA может принимать пакеты меньшей длины, чем поставлено в задаче. Длинна пакета определяется сигналом tlast и tkeep; второй сигнал можно игнорировать, если все данные у вас кратны размеру слова в шине. Все остальные варианты передачи пакетов, которые не соответствуют задаче DMA приведут к зависанию: если пакет пришел больше, чем ожидалось, если DMA стал обращаться в несуществующую область памяти. Поэтому тщательно проверяйте что, куда и сколько пишется. В случае, когда у вас принимается пакет меньше, чем ожидается, важно узнать сколько было принято данных. Для этого есть регистр S2MM_LENGTH. Просто читаем значение данного регистра после завершения передачи, получаем число принятых байт. Обязательно отключаем работу кэш. Я не разобрался какой именно кэш нужно отключить (инструкций или данных), но я всегда отключаю оба. В противном случае команды до DMA не доходят. Вызов библиотечной функции XAxiDma_Busy() до первого запуска ДМА может вернуть TRUE. Итак, мы подошли к самой лучшей части статьи – это запуск DMA. Понятно, что все параметры можно и самому прочитать, но как его запустить это уже ключевой вопрос в работе с DMA. Настройка и запуск происходят через интерфейс S_AXI_LITE. К этому интерфейсу можно достучаться разными путями, например самостоятельно реализовать Мастер интерфейс AXI4Lite или воспользоваться готовым мастером в лице MicroBlaze (также в этой роли подойдет и ZYNQ). В этой статье я покажу два варианта. В моем случае я буду использовать MicroBlaze для инициализации DMA. Для этого открываем Vivado и создаем проект, далее создаем блок дизайн и накидываем типовой проект для данного теста. К MicroBlaze подключен AXI Interconnect, который создает адресное пространство для всех модулей и связывает их. Подключаем BRAM память через BRAM Controller. В данной ситуации подключаю с одним портом. Эта память будет отражать область памяти в адресном пространстве, с которой будет работать DMA. Вместо этой памяти мог стоять MIG (DDR). DMA – гвоздь программы. Его два Мастер интерфейса M_AXI_MM2S и M_AXI_S2MM подключены к общему AXI Interconnect, что немаловажно. Это позволит достучаться до BRAM памяти. AXI Stream Data FiFО – это FIFO через которое будут подключены потоковые интерфейсы DMA сами на себя. Нужен для гарантии, что отправляемый пакет сможет выйти из DMA. Глубина FIFO небольшая, так как для тестов пакеты будут небольшие. И последний модуль AXI UART Lite – нужен для выводаввода текстовой информации. Блоки в проекте специально разбросал таким образом, чтобы можно было проследить линии подключения. После сборки проекта, делаем Export Hardware и запускаем SDK. На этом этапе стоит отметить, что я пользуюсь Vivado 2019.1, и Vitis отсутствует. Но в любом случае различия большого не будет, суть одна: переходим программировать MicroBlaze. Благодаря тому что был добавлен в проект UART, можно автоматически сгенерировать проект HelloWorld, и сразу проверить что собранный проект работает. А мы идем дальше Есть два способа инициализации DMA — это использовать готовую библиотеку либо самостоятельно изучать регистры, у обоих способов есть преимущества. В первом случае готовые, читабельные и отлаженные функции. Во втором случае уменьшение потребления памяти, а там есть что уменьшать! Реализуем две функции которые делают одно и то же, но разными способами. Способ 1. Через готовую библиотеку. В топовом файле проекта (в моем случае helloworld.c) подключаем библиотеки "xaxidma.h" и "xparameters.h", первая нужна для получения библиотечных функций, а вторая для глобальных параметров проекта. Не всегда в проекте этот файл виден, поэтому я вручную его подключаю. Далее реализуем следующий код, каждый кусок кода я реализую отдельно в функцию и затем вызываю в main(). Отдельно рассмотрим функцию XAxiDma_SimpleTransfer(). Это ключевая функция для запуска передачи данных через DMA. Первым аргументом передается указатель на переменную, которая отражает целевой DMA, в нашем случае DMA один и переменная одна dma_ctrl. Поэтому передаем ссылку на нее. Вторым аргументом передаем область памяти, с которой будет работать DMA. Передается указатель; так как mem_tx и mem_rx уже являются указателями, то пишем, как есть. Третьим параметром передаем размер пакета, который ожидается передать через DMA, размер всегда указывается в байтах. Я привык всегда указывать размер какимто выражением, зачастую привязанным к типу переменной в памяти. Например, я ожидаю передать 32 слова в Stream интерфейс, в каждом слове по 4 байта. Размер слова определяется в настройках DMA еще в Vivado. Поэтому в качестве длины я указываю 324, хотя можно сразу было указать 128. Сами решайте, как проще. Четвертым параметром передаем направление передачи. Это важный параметр, а важен он тем, что часто его значение путают, и в итоге все зависает и передача не происходит. Нужно внимательно относиться к этому параметру: XAXIDMA_DMA_TO_DEVICE – передача из памяти в поток(READ CHANNEL), XAXIDMA_DEVICE_TO_DMA – передача из потока в память(WRITE CHANNEL). Для повторного запуска DMA нужно дождаться освобождение каналов от задачи. Способ 2. Через прямой доступ к регистрам. В топовом файле проекта (в моем случае helloworld.c) подключаем библиотеки "xil_io.h" и "xparameters.h", первая нужна для использования функции прямого доступа к адресу, вторая для получения глобальных параметров проекта. Данная функция делает то же самое, что и launch_dma_includes(): запускает передачу 128 байт из памяти, и запускает прием 128 байт для записи в память. В конце просто ждет, когда завершится передача. Запуск передачи происходит при записи размера пакета в DMA в соответствующем канале, поэтому при циклической работе DMA, в обработчике прерываний достаточно просто перезаписать один регистр предыдущим значением. Функции Xil_Out32() и Xil_In32() выполняют чтение и запись указанного адреса. Сравнение этих способов : Оба варианта дают одинаковый результат, но в итоге имеют сопутствующие плюсы и минусы. При использовании готовой библиотеки вам НЕ придется реализовать свой набор функций для запуска DMA. Но зато переменные dma_cfg и dma_ctrl потребляют не мало памяти: dma_cfg 68 байт, dma_ctrl 1872 байт. В случае, когда память ограничена, это может быть критично. При использовании прямого доступа к регистрам, увеличивается скорость инициализации DMA. Например, для выполнения этих задач функция launch_dma_includes() запросила 6805 тактов системного клока, а launch_dma_registers() справилась за 761 такт. Разумеется, в это время входит еще и передача данных, но при таких показателях за 32 слова данных цепляться не стоит. Сигнал gpio_io_o поднимается на время выполнения функции, по нему стоит триггер Разумеется, я не остановился на том, чтобы запустить DMA из MicroBlaze. С ним тоже нужно уметь работать и пользоваться. Поэтому хочется напрямую запустить DMA и больше ничего. Как и в предыдущей части открываем Vivado и создаем проект, также создаем блок дизайн и накидываем типовой проект для данного теста. На рисунке ниже видна блок схема: Ключевые узлы, как и в прошлом этапе аналогичные за исключеним того, что пропал AXI UART изза ненадобности, и пропал MicroBlaze так как он не нужен. Вместо него я подключил самописный модуль launch_dma. Модуль написан на Verilog. Особенность подключения: подключить launch_dma напрямую к DMA можно, но не даст никакого результата. Проблема возникает в базовом адресе. Я не смог понять какой базовый адрес у DMA при таком подключении. Вариант 0х0000000 не сработал. С другой стороны, если в системе будет AXI Interconnect, а он будет, так как у вас будет область памяти и сам DMA выдает 2 AXI интерфейса и их нужно кудато подключить, поэтому соединить все через AXI Interconnect будет адекватно. Для работы определяем базовый адрес во вкладке Address Editor, в моем случае это 0x41e10000, прописываем его в самописном модуле и запускаем. По сути работа модуля launch_dma сводится к работе с адресами аналогично функции launch_dma_registers(). Внутри реализован автомат по записи и чтению регистров и их проверки. В переменной run_list_cmd записаны команды работы и автомат по очереди выполняет команды. Разумеется, этот код можно оптимизировать и ускорить. Самописный модуль позволил ускорить запуск DMA еще больше. Теперь время выполнения всей задачи занимает 329 тактов вместе с передачей 32 слов данных. Скриншот ниже: Кроме скорости выполнения у самописного модуля есть явное преимущество это экономия ресурсов. Если MicroBlaze со своей памятью и минимальной конфигурацией потребляет: LUTs 913, Registers 676, MUX 108, BRAM 0 (зависит от настройки проекта) То, самописный модуль(launch_dma) использует только: LUTs 196 и Registers 266. На мой взгляд, вариант с самописным модулем сразу же становится главным фаворитом всей этой статьи. Но тут есть большое «НО», в этом случае теряются все прелести MicroBlaze и его отладки. Уже трудно будет отправлять сообщение в UART, делать сложные условия работы и проверки. Лично я этим методом стал бы пользоваться только в самом крайнем случае, когда нужна оптимизация кода ради экономии ресурсов ПЛИС. В целом DMA реализует преобразование двух представлений: стрим интерфейс и адресное пространство. И отлично с этим справляется. И как бы это не было очевидно сам DMA тоже потребляет ресурсы ПЛИС, и как раз таки для тех, кто использует MicroBlaze есть небольшое решение, как преобразовать поток данных в запись в память, разумеется, за счет ресурсов процессора. В настройках MicroBlaze есть пункт Number of Stream Links – этот параметр позволяет включить дополнительный интерфейсы процессору, в данном случае AXIStream. И за счет них читать(писать) данные из(в) памяти. Для этого есть функции putfsl() и getfsl() которые позволяют читать и писать данные в Stream интерфейс. Запись и чтение происходит по 1 слову. Данные функции являются блокирующими. Вот скриншот как это выглядит на интерфейсах AXIStream: Вывод в Stream интерфейс (из микроблейза) выводил в цикле по 4 слова, отсюда прослеживается группировка валидных данных по словам. Слова данных выводятся с периодичностью в 13 тактов. Чтение данных из Stream интерфейса (из fifo_2) тоже имеют группировку по 4 слова. Время чтения составляет 1114 тактов. В целом я показал, как можно запустить DMA для передачи данных, отметил некоторые особенности и нюансы. Надеюсь статья даст достаточно понимания в этой области. В будущем планирую разобрать запуск DMA с SG режимом, там уже поддерживаются несколько каналов, цикличность и многое другое.
16,987
https://habr.com/ru/companies/kemp_ai/articles/976046/
habr.com
Написание дипломной работы перестало быть испытанием на выживание. Узнайте, как написать ВКР с помощью нейросети, превратив месяцы рутины в несколько дней продуктивной работы. Мы разберем возможности лучших нейросетей для дипломной работы, которые станут вашими научными соавторами. В 2025 году использование технологий в ВУЗах перешло на новый уровень. Если раньше студенты искали, где скачать готовое, то сегодня ИИ для написания диплома выступает в роли персонального научного руководителя, доступного 247. Современные модели способны не просто генерировать текст, но и выстраивать сложную архитектуру исследования, анализировать данные и формулировать гипотезы. Однако важно снять розовые очки: написание ВКР — это сложный, многосоставной процесс. Нейросеть не напишет идеальный диплом за один клик, пока вы пьете кофе. Её задача — взять на себя 80% трудоемкой работы: подбор литературы, структурирование мыслей, черновую генерацию глав и оформление. Ваша задача — экспертная оценка и «сшивание» блоков в единое целое. Чат GPT для написания диплома в базовой версии часто теряет нить повествования в больших текстах, поэтому для серьезных академических задач нужны специализированные инструменты. Среди десятков инструментов лучшая нейросеть для дипломной работы в российском сегменте образования — это Кэмп. Это не просто чатбот, а комплексная платформа, специально обученная на базе из более чем 2 000 000 студенческих работ (ВКР, курсовые, рефераты). Это дает ей решающее преимущество: она «понимает» специфику академического языка и требования российских ВУЗов. Кэмп закрывает полный цикл задач, возникающих при подготовке выпускной работы: Глубокая работа с контекстом: ИИ учитывает вашу специальность (от юриспруденции до инженерии), используя профильную терминологию. Генерация и доработка планов: Помогает сформировать логичную структуру, которую одобрит научрук. Умный подбор литературы: Находит актуальные источники для конкретных глав, а не просто выдает список случайных книг. Помощь в написании диплома по частям: Пишет текст параграфами и главами, сохраняя уникальность и научный стиль. Подготовка к защите (Киллерфича): Кэмп умеет создавать презентации на основе вашего текста. Вы загружаете готовую главу или всю работу, а сервис генерирует слайды с тезисами и инфографикой. Более того, он может написать защитную речь — тот самый доклад на 5 минут, который будет слушать комиссия. Если вы пробовали использовать обычный чат gpt для диплома, то знаете о проблемах: вода в тексте, выдуманные факты и потеря контекста через 500 слов. Обучение на реальных работах: Алгоритмы видели миллионы успешно сданных дипломов, поэтому структура текста сразу соответствует академическим стандартам. Высокая уникальность: Тексты генерируются с учетом требований антиплагиата (оригинальность 90%), что критично для написания дипломной работы через нейросеть. Многозадачность: В отличие от узких сервисов, здесь есть встроенные инструменты для решения задач и вычислений, если ваша ВКР содержит практическую часть. Безопасность: Ваши наработки не попадают в открытые базы до момента публикации, что исключает риск «самоплагиата». Кому это нужно? Сервис идеально подходит студентам, которые хотят заказать написание диплома у самого надежного исполнителя — искусственного интеллекта, работающего под их чутким руководством. Это инструмент для тех, кто хочет получить качественный результат, сохранив нервную систему. Написание дипломной работы с помощью нейросети Кэмп Секрет качественного диплома, написанного нейросетью — это декомпозиция. Дипломная работа — слишком объемный и сложный труд, чтобы генерировать его одной кнопкой. Чтобы получить текст, который пройдет нормоконтроль и антиплагиат, нужно использовать Кэмп как профессиональный конструктор, создавая работу по частям. Вот проверенная методология, как написать диплом через нейросеть, разбив процесс на управляемые этапы: Прежде чем запускать генерацию, разделите вашу будущую ВКР на 56 логических блоков. В Кэмпе лучше создавать не одну огромную работу, а несколько отдельных проектов под каждую часть диплома. Это позволит детально проработать каждый аспект темы. Глава 1: Теоретические основы (можно разбить на 2 части, если тема сложная). Глава 2: Анализ и методология (основная исследовательская часть). Глава 3: Рекомендации и предложения (проектная часть). Начнем с фундамента. Создайте в Кэмпе новый документ с темой вашей первой главы. Формирование содержания: Введите название главы и позвольте нейросети сгенерировать план. Редактура (Ключевой момент): ИИ предложит пункты и подпункты. Ваша задача — внимательно просмотреть их и отредактировать. Уберите лишнее, добавьте специфические пункты из методички вашего ВУЗа или пожеланий научного руководителя. Настройка объема: Укажите необходимое количество страниц (например, 2025 страниц для теории). Это даст нейросети сигнал раскрывать тему глубоко, с деталями и терминами, а не поверхностно. Результат: Запускайте генерацию. Кэмп напишет структурированный академический текст, строго следуя утвержденному вами плану. Это «сердце» диплома. Здесь ИИ для написания дипломной работы должен показать максимум конкретики. Настройка плана под задачу: При создании плана для этих глав вручную впишите в подпункты названия конкретных методов анализа, объектов исследования или предприятий, о которых нужно написать. Детализация: Если Глава 2 посвящена анализу конкретной проблемы, убедитесь, что в сгенерированном плане есть пункты про текущее состояние, динамику показателей и выявление проблем. Проектная часть: Для третьей главы задайте в плане пункты, касающиеся разработки мероприятий. Указав нужный объем страниц, вы получите развернутое описание предлагаемых мер и обоснование их эффективности. Эти элементы требуют особой точности формулировок, и их лучше генерировать, когда основное «тело» диплома уже понятно. Введение: Создайте отдельный блок. В настройках плана убедитесь, что присутствуют обязательные элементы: актуальность, цель, задачи, объект, предмет. Используйте функционал нейросеть для введения для дипломной работы, чтобы получить безупречный академический стиль, свойственный вводным частям ВКР. Заключение: Создавая блок для заключения, укажите небольшой объем (35 страниц). Кэмп, ориентируясь на заданную тему, сформирует итоговые выводы. Написание заключения для дипломной работы таким способом гарантирует, что финальные слова будут звучать весомо и логично завершать ваше исследование. Теперь у вас есть 5 готовых, вычитанных и глубоко проработанных файлов. Остается объединить их в один документ Word, проверить сквозную нумерацию и оформить титульный лист. Благодаря тому, что вы задавали объем и план для каждой части отдельно, итоговая работа получится сбалансированной, полной и логичной, без «воды» и повторов. Используя Кэмп именно так — блочно и последовательно — вы полностью контролируете процесс, получая на выходе уникальную ВКР высокого уровня. В первой части мы детально разобрали работу со специализированным инструментом Кэмп, который заточен именно под академические задачи. Но мир ИИ для написания диплома огромен, и игнорировать гигантов индустрии было бы неправильно. Да, универсальные языковые модели (LLM) часто требуют более сложных промптов и тщательной проверки фактов, чем профильные сервисы. Однако, если вы знаете их сильные и слабые стороны, написание дипломной работы превращается из каторги в управляемый процесс. Ктото лучше справляется с кодом, ктото — с анализом литературы, а ктото идеально генерирует «человеческий» текст. Ниже — честный разбор самых актуальных версий нейросетей на 2025 год. Разберемся, какая лучшая нейросеть для дипломной работы подойдет под ваши конкретные задачи. Это, пожалуй, самый известный игрок на рынке. К версии 5.2 модель стала невероятно мощной в плане логических рассуждений. Если вам нужна помощь в написании диплома в части теоретического обоснования или построения сложных гипотез, этот чатбот справится на отлично. Он умеет удерживать огромный контекст, что позволяет загрузить в него несколько учебников и попросить сделать компиляцию. Однако, как и любой универсал, он страдает от «воды» и любви к клише. Глубокое понимание контекста: может анализировать загруженные методички и следовать (хоть и не всегда идеально) структуре. Отличная работа с логикой и аргументацией: чат gpt для диплома идеален для написания раздела «Постановка проблемы». Высокая скорость генерации больших объемов текста для теоретических глав. Умеет создавать неплохие черновики речи для защиты. Склонен к «галлюцинациям» (выдумыванию фактов и несуществующих книг), если не дать ему жесткие источники. Стиль текста часто выдает машинное происхождение (слишком «гладкий» и перенасыщенный вводными словами). Сложности с соблюдением ГОСТов при оформлении ссылок — требует ручной доработки. Может отказываться писать большие куски текста за один раз, требуя постоянных уточнений. Вердикт: Чат gpt для написания диплома версии 5.2 — это мощный «двигатель», но ему нужен опытный водитель. Используйте его для генерации идей, структуры и «мяса» для глав, но будьте готовы серьезно редактировать стиль и проверять фактологию. Google сделал огромный скачок с выпуском Gemini 3. Главная фишка этой нейросети для написания диплома — ее тесная интеграция с сервисами Google и мультимодальность. Она «видит» графики, понимает видео и имеет прямой доступ к актуальной научной базе через Google Scholar (в режиме поиска). Это делает её незаменимой, когда нужно написание введения для дипломной работы с актуальной статистикой за последний год. Работа с актуальными данными в реальном времени: находит свежие статьи и отчеты 2024–2025 годов. Анализ изображений: можно загрузить скриншот диаграммы из источника, и ИИ опишет её для вашей работы. Большое окно контекста: позволяет «скормить» нейросети десяток PDFфайлов с источниками для анализа. Хорошо понимает запросы на стыке дисциплин (например, экономика IT). Жесткие этические фильтры: может отказаться писать на острые социальные или политические темы. Иногда теряет нить повествования в середине длинного диалога. Генерируемый код (для технических дипломов) часто требует отладки. Интерфейс может быть перегружен лишней информацией из поиска. Вердикт: Если ваша тема требует свежайших данных и работы с графиками, Gemini 3 — ваш выбор. Это отличный ИИ для написания вкр, когда нужно актуализировать информацию, но для написания связного лонгрида на 60 страниц он может быть менее стабилен, чем специализированные решения. Если вы ищете ИИ для написания дипломной работы, который выдаст текст, максимально похожий на человеческий, то Claude Opus — фаворит. Эта модель славится своей «литературностью» и способностью следовать сложным инструкциям без лишней отсебятины. Opus пишет вдумчиво, меньше льет воды и лучше других имитирует научный стиль изложения без канцелярщины. Самый «человечный» стиль письма: текст требует минимальной стилистической правки. Гигантское контекстное окно: можно загрузить всю собранную литературу, и он напишет главу, опираясь строго на эти источники. Великолепно справляется с рерайтом: если нужно повысить оригинальность текста. Строгое следование тону повествования (можно попросить писать как профессор или как аспирант). Медленная скорость генерации по сравнению с конкурентами. Высокая стоимость подписки (или лимиты в бесплатной версии). Может быть излишне осторожным в выводах, избегая конкретики. Хуже работает с математическими расчетами, чем GPT. Вердикт: Идеален для гуманитариев. Написание дипломной работы через нейросеть Claude Opus позволяет получить текст с высокой уникальностью и отличным слогом. Используйте его для литературного обзора и заключения. «Младший брат» Опуса, который работает быстрее и жестче. Sonnet 3.5 (и последующие версии) зарекомендовали себя как лучшие помощники для кодинга и технического анализа. Если ваша ВКР связана с программированием, анализом данных или инженерией, Sonnet — это лучшая нейросеть для дипломной работы технического профиля. Лучшая генерация и отладка программного кода на Python, C, Java и других языках. Умеет читать сложные схемы и преобразовывать их в текстовое описание. Меньшая глубина «творческого» анализа по сравнению с Opus. Иногда сокращает мысли там, где нужно развернуть их подробнее. Вердикт: ИИ для генерации дипломной работы по ITспециальностям. Он напишет код для практической части и составит пояснительную записку, но для «воды» во введении лучше взять другой инструмент. Это не просто чатбот, это гибрид поисковика и ИИ. Perplexity решает главную боль студента: ссылки на источники. В то время как другие нейросети для написания курсовых и дипломов могут выдумать автора, Perplexity ищет реальные статьи и ставит сноски. Это мастхэв для формирования библиографического списка. Автоматический подбор реальных источников со ссылками. Генерация текста строго на основе найденных фактов (минимум галлюцинаций). Пишет короткими ответами, не способен сгенерировать главу целиком. Текст часто выглядит как реферат или компиляция фактов, без глубокого авторского анализа. Слабая работа с русскоязычными узкоспециализированными источниками (лучше ищет на английском). Вердикт: Используйте Perplexity как исследовательский инструмент. Это лучшая помощь в написании дипломных на этапе сбора материала и проверки фактов. Написать диплом целиком здесь не выйдет, но собрать базу — легко. Отечественная разработка, которая к версии 5.1 Pro научилась отлично понимать российские реалии. Если ваша тема касается российского законодательства, истории, филологии или экономики РФ, зарубежные модели могут «плавать». YandexGPT — это нейросеть для дипломной работы, которая знает, кто такой Пушкин и что такое 44ФЗ. Превосходное знание российского культурного и правового контекста. Хороший русский литературный язык без кальки с английского. Неплохо справляется с написанием заключения для дипломной работы, резюмируя вышесказанное. Слабее в сложных логических цепочках и программировании по сравнению с GPT5 или Claude. Меньшее контекстное окно — забывает начало длинного диалога. Вердикт: Подойдет для тем, завязанных на Россию. Написание ВКР по юриспруденции или госуправлению с помощью YandexGPT пройдет гораздо глаже, чем с западными аналогами, которые могут выдумать несуществующие законы. Нейросеть от Илона Маска. Её особенность — доступ к данным соцсети X (Twitter) в реальном времени и отсутствие жесткой цензуры ("woke" фильтров). Если вы пишете работу по политологии, социологии интернета или современным медиатрендам, Grok может дать уникальную фактуру. Готовность обсуждать спорные темы, от которых отказывается Gemini или ChatGPT. Интересный аналитический взгляд на социальные явления. Стиль может быть слишком разговорным или саркастичным для академической работы (требует редактуры). Нестабильное качество ответов на глубокие научные темы. Слабая работа с русским языком в сложных академических конструкциях. Вердикт: Специфический инструмент. Подходит как gpt для написания вкр по социологии и медиа, но требует тщательной фильтрации стиля. Не рекомендуем для классических технических или гуманитарных дипломов. Семейство открытых моделей LLaMA, разработанное Meta, быстро стало основой для множества независимых русскоязычных платформ. Суть в том, что энтузиасты упаковывают мощное ядро LLaMA в удобные вебоболочки, часто добавляя предустановленные настройки или "роли" (например, "Профессор ВУЗа" или "Редактор ВКР"). Это привлекает студентов, которые ищут нейросети для написания курсовых и дипломов без необходимости возиться с VPN или сложными подписками. Для написания дипломной работы LLaMA интересна тем, что позволяет экспериментировать со стилем и тоном, минуя часть жестких цензурных ограничений. Доступность и гибкость: Модель можно настроить под конкретную задачу через готовые пресеты, что упрощает работу над написанием вкр. Экспериментальный потенциал: Отсутствие строгих фильтров позволяет обсуждать неформатные или спорные темы, полезные для социологии или политологии. Потенциал конфиденциальности: При запуске локально (на мощном ПК) гарантирует, что ваш текст не попадет в облачные базы данных. Стоимость: Базовые версии часто доступны бесплатно через сторонние вебинтерфейсы. Нестабильность качества: Поскольку модель открытая, качество её "русского языка" сильно зависит от того, как её дообучили разработчики конкретной сборки. Может быть хуже, чем у проприетарных моделей. Ограниченная актуальность: Базовые версии LLaMA часто не имеют доступа к свежим данным и не знают актуальных событий 2024–2025 годов. Отсутствие источников: Модель не умеет самостоятельно искать и цитировать научные публикации, что критично для написания дипломной работы через нейросеть. Вердикт: LLaMA — это скорее "конструктор" для продвинутых пользователей. Если вы ищете ИИ для диплома, который должен выдать гарантированно высокий результат по академическим стандартам, универсальный LLaMA потребует больше вашего времени на редактуру и фактчекинг, чем специализированный Кэмп. Сервисагрегатор, который предоставляет удобный доступ к топовым моделям (GPT4, GPT5 и др.) через единый интерфейс без необходимости использования VPN и иностранных карт. По сути, это мост между пользователем и мощными нейросетями, часто с добавлением готовых промптовшаблонов. Простой доступ к Chat GPT ранних версий из РФ без "танцев с бубном". Наличие шаблонов для учебы: помощь в написании диплома, эссе, статей. Возможность переключаться между разными моделями внутри одного окна. Это посредник, поэтому функционал ограничен возможностями подключенных моделей. Нет глубокой специализации под ВУЗы (как у Кэмп), это скорее «швейцарский нож». Вердикт: Отличный вариант для тех, кто ищет помощь в написании вкр, но не хочет разбираться с регистрацией в OpenAI или покупкой криптовалюты. Просто, быстро, эффективно, но требует контроля за качеством генерации. Главная специализация (Для чего лучше использовать) Полный цикл подготовки ВКР "под ключ". От плана и текста до презентации и защитной речи. Идеально. Обучена на 2 млн реальных дипломов. Понимает специфику ВУЗов, держит контекст всей работы, пишет с высокой уникальностью (90%). Профессионально. Умный подбор реальной литературы под конкретные главы. Минимум галлюцинаций. Легко. Работает без VPN, российские карты, интерфейс на русском. Лучшая нейросеть для дипломной работы. Ваш стратегический партнер, который заменяет целый штат помощников. Генерация идей, построение логики, теоретические блоки. Хорошо. Мощная логика, но страдает от "воды" и клише. Требует стилистической правки и удаления вводных слов. Средне. Часто выдумывает книги и авторов. Требует жесткой проверки фактов. Сложно. Требуется VPN и зарубежная картапосредники. Мощный "двигатель" для генерации объема, но требует опытного "водителя"редактора. Гуманитарные науки, литературный обзор, рерайт текста. Отлично. Самый "человечный" стиль письма. Имитирует научный язык без канцеляризмов. Хорошо. Если загрузить свои источники, пишет строго по ним. Сам ищет хуже. Сложно. Дорогая подписка, сложности с оплатой из РФ. Лучший выбор для гуманитариев и филологов, кому важен красивый слог. Актуализация данных, работа с графиками и изображениями. Хорошо. Большое окно контекста. Но жесткие этические фильтры могут мешать работе над острыми темами. Отлично. Имеет доступ к Google Scholar и свежим данным за 20242025 гг. Незаменим для введения и аналитики, где нужны свежие цифры и диаграммы. Средне. Пишет коротко, сухо, скорее реферативно. Не подходит для длинных глав. Отлично. Находит реальные ссылки, ставит сноски. Это поисковик на стероидах. Средне. Часть функций платная, нужен VPN для Proверсии. Идеальный ИИ для написания диплома в части составления списка литературы. Российское право, история, госуправление, филология. Хорошо. Понимает российские реалии (законы, культуру) лучше западных аналогов. Средне. Осторожен в выводах, база знаний ограничена рунетом. Спасение для юристов и историков, пишущих по темам РФ. Специфично. Пишет сухо, по делу. Идеален для техдокументации, плох для "воды". Средне. Фокус на логике и коде, а не на поиске книг. Лучшая помощь в написании вкр для программистов и инженеров. Зависит от модели. Использует API GPT45, поэтому качество соответствует им. Удобный "швейцарский нож" для тех, кто не хочет настраивать VPN. Специфично. Стиль может быть слишком дерзким и неформальным для ВУЗа. Хорошо. Доступ к соцсети X (Twitter) в реальном времени. Подойдет для тем по современным медиа, но требует серьезной вычитки. Универсальный помощник без цензуры и лишних сложностей Хорошо. Вебверсии часто имеют готовые пресеты ("Научный стиль", "Редактор"), что упрощает настройку стиля. Зависит от сборки. Базовая модель не имеет выхода в интернет, работает только с тем, что знает или что вы в нее загрузили. Легко Сложно. Легко через вебсервисы (без VPN и GPU), сложно — если ставить локально ради приватности. Доступная, но нестабильная альтернатива. Требует максимального контроля и редактуры со стороны студента. Вы уже знаете, какая нейросеть для ВКР лучше справится с генерацией текста, будь то специализированный Кэмп или универсальный ChatGPT 5.2. Однако самый мощный ИИ для дипломной работы никогда не заменит вашу внимательность. Чтобы ваша генерация диплома с помощью нейросети не провалила нормоконтроль, нужно понимать строгие требования российского образования. Мы разберем актуальные требования к выпускным квалификационным работам (ВКР) в 2025–2026 учебном году и дадим конкретные советы, как заставить нейросеть соблюдать эти правила. В 2025 году основные требования к оформлению ВКР попрежнему базируются на комплексе государственных стандартов (ГОСТ 7.322017, ГОСТ 2.1052019 и ГОСТ Р 7.0.1002018). Но помните золотое правило: методичка вашего ВУЗа главнее любого ГОСТа! Эти настройки критичны, и их нужно проверить в первую очередь, даже если нейросеть для дипломной работы вам помогла: Красная строка: Абзацный отступ 1,25 см (должен быть одинаковым по всему документу). Печать: Односторонняя (двусторонняя печать не допускается). Размеры полей ВКР — самая частая причина возврата работы на доработку. Здесь могут быть небольшие отличия в ВУЗах, но стандартный ГОСТ2025 выглядит так: Совет ИИпользователю: Ваша нейросеть для ВКР не умеет настраивать поля в Word. Это ваша личная ответственность! Настройте шаблон документа до того , как будете вставлять туда сгенерированный текст. Нумерация страниц: Сквозная, арабскими цифрами. Отсчет начинается с титульного листа, но сам номер страницы проставляется только с Введения. Обычно номер ставится внизу по центру или справа. Рисунки и таблицы: Нумеруются раздельно и по порядку (например, Таблица 1.1, Рисунок 2.3). Подпись к рисунку: Размещается под рисунком, выравнивание по центру, точка в конце не ставится. Заголовок к таблице: Размещается над таблицей, выравнивание по левому краю или по центру. Ссылки: Ссылки на все рисунки, таблицы и, конечно, источники должны быть обязательно в тексте (например, [4, с. 25] или [Иванов, 2025]). Генерация диплома с помощью нейросети будет успешной только в том случае, если вы понимаете, что должно быть в каждой структурной части. Это самый важный раздел, который проверяет научный руководитель. Здесь вы задаете всю "научную кухню" работы. "Сгенерируй абзац о том, почему тема X важна для ITиндустрии в 2025 году в контексте импортозамещения." "Сформулируй цель работы (одна), а затем 5–6 задач для ее достижения." "Определи объект и предмет исследования по теме Влияние цифрового маркетинга на малый бизнес." "Перечисли, какие методы (сравнительный анализ, синтез, индукция, статистическая обработка) применены в работе." Обычно делится на 2–3 главы (теоретическая, аналитическая, практическая). Задача: Показать, что вы изучили труды ведущих ученых. Совет по генерации: Запрашивайте не просто текст, а анализ и систематизацию. Используйте промпт: "Проанализируй и сравни подходы [Автор 1], [Автор 2] и [Автор 3] к понятию цифровая трансформация. Выдели ключевые различия и дай своё определение." Задача: Описать состояние объекта исследования (например, анализ финансовой деятельности предприятия, обзор рынка). Совет по генерации: Нейросеть (особенно Gemini 3 или Perplexity) может найти свежие данные, но только вы должны структурировать их: "На основе предоставленных данных за 2023–2025 годы проведи SWOTанализ компании X. Сгенерируй 5 ключевых выводов и предложи диаграмму для их иллюстрации." Задача: Разработка (модели, алгоритма, программы, рекомендаций). Совет по генерации: Здесь вам нужен Claude Sonnet (для кода) или Кэмп (для структурированных рекомендаций). Запрашивайте конкретику: "Напиши раздел Экономическое обоснование внедрения CRMсистемы для компании с оборотом 500 млн руб., сгенерируй таблицу расчета окупаемости." Это самостоятельный раздел, не просто скопированные выводы! Задача: Последовательно ответить на каждую задачу, поставленную во Введении. Совет по генерации: "Напиши Заключение ВКР. Оно должно начинаться с ответа на Цель работы. Затем последовательно дай выводы по каждой из 5 задач. В конце сделай вывод о достижениинедостижении цели." Даже самая умная нейросеть для ВКР требует контроля. Ваша главная задача — обеспечить высокий процент оригинальности. Нейросети, особенно универсальные, склонны выдумывать. Проверка ссылок: Всегда перепроверяйте источники, которые сгенерировал чат GPT для диплома. Если ИИ назвал книгу 2024 года, но не дал точных выходных данных, найдите её сами или удалите. Соблюдение терминологии: Если вы пишете диплом по Вычислительной технике или Финансовому менеджменту, убедитесь, что ИИ использует узкоспециализированные термины, а не синонимы из общего лексикона. Используйте промпты, которые заставляют ИИ писать аналитически , а не компилировать : Плохо: "Напиши про историю интернета." (Низкая уникальность, общий текст) Хорошо: "Опиши ключевые этапы развития Web 3.0 в контексте влияния на генерацию диплома с помощью нейросети. Проанализируй тенденции 2024–2025 годов." (Высокая уникальность, фокус на свежих LSI) Универсальные модели часто пишут в разговорном или публицистическом стиле. Вам нужно добиться научного стиля : Удалите: "Я считаю", "На наш взгляд", "Безусловно", "Легко понять". Добавьте: "Представляется целесообразным", "Анализ позволяет утверждать", "Исходя из полученных данных". Используйте промпт: "Переработай этот параграф (вставьте текст) в строгий научный, без использования личных местоимений." Соблюдая эти требования ГОСТа и используя нейросеть как мощный, но подконтрольный инструмент, вы гарантированно получите сильную ВКР, которая пройдет и нормоконтроль, и антиплагиат. Сама по себе генерация диплома с помощью нейросети не является плагиатом, если текст проходит проверку на уникальность. Плагиат — это несанкционированное использование чужого материала. Нейросеть генерирует новый текст. Однако этическим нарушением может считаться выдача полностью сгенерированной работы за свою без указания на использование ИИ. Рекомендуется использовать ИИ как инструмент (например, для рерайта или структурирования), а не как конечного автора. Нейросеть для дипломной работы (особенно Claude Sonnet или Gemini 3) может помочь в следующих прикладных задачах: генерация формул и их описание в тексте; написание скриптов на Python для статистической обработки данных; разъяснение сложных экономических моделей (например, оценка рисков, расчет NPV); создание чернового варианта пояснительной записки к техническому проекту. Современные системы антиплагиата (например, "Антиплагиат.ВУЗ") постоянно обновляются, включая модули для определения AIтекста. Однако ИИтекст определяется не по уникальности, а по специфической стилистике, свойственной машинам. Чтобы избежать этого, используйте нейросети, которые пишут "человечно" (например, Claude Opus), и всегда проводите глубокий рерайт, добавляя свой анализ и субъективные оценки. Хотя единого общероссийского стандарта пока нет, по требованиям APA и MLA, если нейросеть для ВКР использовалась для генерации текста, это должно быть указано в сносках или в списке литературы. Формат часто выглядит так: Название Модели (Версия), Разработчик. (Год). [Описание запроса]. Уточните этот момент у вашего научного руководителя. Это проблема универсальных моделей, обученных на англоязычной базе. В самом начале диалога задайте системный промпт: "Ты пишешь текст на русском языке в строгом академическом стиле. Используй только елочки (« ») для кавычек и строго три точки без пробела (...) для многоточия. Соблюдай ГОСТ оформления дипломной работы." Да. Это одна из ключевых киллерфич специализированных сервисов (например, Кэмп). Вы можете загрузить готовый текст, и ИИ сгенерирует 10–12 тезисных слайдов и черновик защитной речи на 5–7 минут. Для универсальных моделей: используйте промпт "Преврати каждую главу моей ВКР в 34 ключевых тезиса для устного доклада на защите." Используйте мультимодальность для аналитической главы. Загрузите скриншот или PDFфайл с диаграммой годового отчета и попросите ИИ: "Проанализируй этот график ростападения показателей и сгенерируй три абзаца текста для моей аналитической главы с выводами по тренду." Для эффективного написания дипломной работы через нейросеть вам нужно контекстное окно от 100 000 токенов (что эквивалентно примерно 75 000 слов). Универсальные версии (Opus, Gemini 3) предлагают такие объемы, что позволяет загрузить весь теоретический обзор (50–60 страниц) и попросить нейросеть писать новую главу, опираясь только на этот материал. Да, и он сделает это быстро и качественно. Аннотация (краткое содержание) и подбор 5–7 ключевых слов для SEO ВКР — рутинные задачи, с которыми ИИ справляется отлично. Скормите ИИ готовое Заключение, и попросите: "Сгенерируй аннотацию (250 слов) и 7 ключевых слов для этого диплома, основываясь на цели, задачах и полученных выводах." ИИ наиболее эффективен на ранних этапах и на финишной прямой: Начало: Генерация плана, целей, задач и чернового литературного обзора. Середина: Генерация черновиков отдельных параграфов и помощь в расчетах. Конец: Написание заключения для дипломной работы, проверка текста на стилистическую однородность, рерайт для повышения уникальности.
30,002
https://habr.com/ru/articles/976462/
habr.com
Я давно работаю с компаниями, у которых есть ассортимент из сотен или тысяч SKU . И каждый раз повторяется одна и та же сцена. Клиент показывает отчет по продажам и с видом мудреца произносит фразу: «Эти позиции продаются хорошо, а эти плохо» . И вот ты смотришь на таблицу и понимаешь, что с такими выводами можно смело идти выбирать лотерейный билет. Задача у клиента была простая: понять, какие товары реально приносят прибыль, а какие просто занимают место на складе. Не хотелось тратить месяцы на сложные BIпроекты. Нужен был инженерный подход. Простой, честный и с минимальным количеством боли. Личный опыт подсказывал: чем проще модель, тем быстрее клиент начинает принимать решения, а не спорить с таблицей. Поэтому мы и выбрали инженерный путь анализа. Он сухой, логичный и без романтики. Но работает. разные скидки, которые менеджеры выдавали по настроению В обычных Excelсводках это превращается в хаос. Особенно когда менеджер говорит фразу: Инженерный подход помогает убрать эмоции и оставить только факты. Он строится на принципе: «Если нельзя измерить, нельзя улучшить» . Когда мы начали работу, стало ясно: достаточно трёх уровней анализа. Все остальное можно добавить позже. Формула примитивная, но она сразу вскрывает половину правды: Клиент удивился: 30 процентов ассортимента, оказывается, продавались почти в ноль. А две позиции вообще уходили в минус, но всем казалось, что они «топовые». Это момент, где инженерный подход особенно полезен. Мы не просто смотрим, сколько SKU заработал. Мы смотрим, сколько денег он заморозил . Мы считаем: Получается, что товар может быть маржинальным, но «жирным», как анаболик. Он много ест и мало двигается. Мы пробовали модель с использованием данных звонков и заявок через mepulse . И оказалось, что часть SKU является «магнитами». Они генерируют трафик, привлекают клиентов и повышают вероятность покупки по другому товару. И наоборот: есть позиции, на которые маркетинг тратит деньги, но эти позиции не приводят клиентов вообще. После обработки данных мы получили четыре группы SKU. Прибыльные, быстро оборачиваемые, не требуют маркетинга. Неочевидные, но очень выгодные. Обычно их никто не замечает. Продаются часто, приносят мало, но создают ощущение движухи. Никто не мог объяснить, зачем они нужны. Но они были. И долго. Расставаться с группой D клиенту было тяжело. Каждый SKU казался родным. Но инженерный подход беспощаден. Или SKU приносит деньги, или он музейный экспонат. Интуиция полезна, пока ассортимент меньше 50 позиций. После 200 единственный способ сохранить прибыль перейти на инженерный метод расчета прибыльности и оценки оборачиваемости. Мозг просто не удержит все параметры одновременно. И в этом есть правда. Люди склонны переоценивать «любимые товары» и недооценивать тихих героев ассортимента. Один раз я сам провел анализ для своего проекта и сделал вывод: товар «Х» нужно выводить из ассортимента. Он был убыточным, медленным и тяжелым. Перед выводом я решил ради интереса посмотреть, как он влияет на трафик. И оказалось, что: именно по нему люди делали больше всего поисковых запросов То есть люди приходили ради товара «Х», но покупали совсем другой. Тогда я понял простую вещь: инженерный подход надо дополнять поведенческими данными. Это и помогло при работе с клиентом из этой статьи. Если вы хотите оценить прибыльность своего ассортимента без многомесячного внедрения BI, начните с малого. Посмотрите, какие SKU дают заявки или звонки. Если есть системы аналитики вроде mepulse используйте их данные. Эта тема всегда вызывает дискуссии. Всегда есть человек, который скажет: «Нет, этот товар нельзя убрать, он легенда». И всегда найдется другой человек, который ответит: «Легенда не платит аренду склада». Оценка прибыльности SKU не финансовый отчет, а инженерная задача. Она требует дисциплины, структурного мышления и готовности признать неприятные факты. Но зато после такого анализа клиент впервые видит свой бизнес без иллюзий. И это всегда начало роста.
3,958
https://habr.com/ru/articles/973894/
habr.com
Когда в языках программирования речь заходит о случайных числах, то подчеркивается, что производящие их "генераторы" (специальные функции или объекты) выдают на самом деле псевдослучайные значения. Они, исходя из начального так называемого "зерна", вычисляются по определенной формуле. Таким образом, в самой программе настоящей случайности нет, потому что если известны инициирующие данные и алгоритм, все остальные числа предопределены. Нам значения кажутся случайными лишь потому, что мы не ведаем ни зерен, ни формул. В Си стартовое зерно задано. В примере ниже каждый раз при выполнении программы будет выводиться один и тот же ряд чисел. Зерно можно переопределить, передав свое число в функции srand , и ряд будет другим, но всеравно при каждом выполнении программы одинаковым. Поэтому в качестве инициирующего значения часто используют системное время, которое будет взято в момент запуска программы. Разные моменты исполнения — разное системное время. Конечно, время можно подкрутить, но для пользовательских приложений (не связанных с криптографией и безопасностью) такой случайности обычно достаточно. В Python нужды менять зерно нет (но если надо задать явно, то соответствующая функция есть как в модуле random , так и библиотеке NumPy) , потому что сам интерпретатор берет его из внешних источников при выполнении программы. Так в Linux это "шум" (энтропия), полученный из драйверов устройств. Предсказать и повторить его сложнее, чем системное время. Поэтому можно говорить о почти истинной случайности. Сейчас нас не интересует вопрос, как сделать числа более случайными. Обратим внимание, как в Си явно, так и Python неявно, чтобы в программе завелась непредсказуемая и неповторяемая для нее случайность, зерно должно быть получено извне . Программа о том, что происходит во внешней для нее среде, ничего не знает. Система, из которой она получает данные, выступает для нее черным ящиком. Чтобы в программе появилась истинная для нее случайность, и она, и черный ящик должны быть открытыми и обмениваться данными. Когда мы подкидываем монету, сторона ее падения предопределена в момент броска (флуктуации на тему "вдруг подул ветер" мы игнорируем) . Это только для нас орел или решка — случайность. Мы как ограниченная в своих возможностях "программа" не знаем, как влияет сила подкидывания, угол, исходное положение и другое на конечный результат, не измеряем их. Вся эта физика для нас играет роль черного ящика. Однако если заметить, при каких положении монеты в руке, силе броска, высоте, напольном покрытии она падает орлом, можно натренироваться и свести к минимуму случаи выпадения решки. Это вроде как начать задавать зерно явно для системы с целью получения из нее определенного результата. Обычно более крупные системы включают в себя другие в качестве составных компонентов. Например, организм — это взаимодействующие между собой системы органов (дыхательная, нервная и др.); каждая в свою очередь состоит из отдельных органов. Представим, что в модельной системепрограмме ее подсистемыфункции обмениваются данными, выполняющими роль зерен для получателей. Когда, к примеру, система second получает конкретное зерно, она приходит в соответствующее ему состояние, то есть генерируется массив определенных превдослучайных чисел. Перечень возможных таких массивов–состояний соответствует количеству вариантов значений зерна. И если это количество не бесконечно, то конечно и число вариаций состояния системы. При всем этом при каждом запуске нашей программы будут генерироваться разные числа. Причина кроется в том, что сама программа все еще остается открытой системой. Когда main_seed присваивается случайное число, до этого в самой программе зерно еще нигде не задавалось. Следовательно, раз мы имеем дело с Python, оно было взято из внешних источников. В результате при каждом запуске main_seed имеет разное из сотни значение. Но если мы "закроем" систему вызовом функции seed в основной ветке, то при каждом выполнении программы будем получать одни и те же массивы. (Здесь не имеются в виду повторные вызовы функций в процессе одного выполнения. Они будут выдавать разные массивы, так в них будет передаваться отличное от предыдущего зерно.) Представим, что на какомто уровне объединения подсистем в единую систему было включено все, что только можно. Ничего за ее пределами больше не существует. В таком случае ей больше не с чем обмениваться данными. Зерно больше нельзя получить извне. Это значит, оно должно быть задано в момент запуска этой программы и предопределит весь ход ее выполнения. Кроме того, не будем забывать, что вариаций зерен может оказаться ограниченное количество, поэтому и способов развития системы не бесконечно. Получается, что если рано или поздно мы упираемся в закрытую систему, истинной случайности неоткуда взяться (она существует лишь на уровне подсистем, которые обмениваться данными могут, но о принципах работы друг друга не знают) . Однако в одной из функций может появиться нечто, способное анализировать другие и себя, менять зерно как считает нужным. В этом случае данные, которыми система была инициирована при запуске, могут иметь значение только до момента появления сознания. После этого дальнейший ход развития системы перестает зависеть от начального зерна.
5,232
https://habr.com/ru/companies/piter/articles/976000/
habr.com
Расскажу вам в этой статье, как я снизил потребление памяти моего macOSприложения на Flutter более чем на 90%. Это потребовало неожиданно много усилий и включало создание собственного хоста для Flutter, разработку пользовательского плагина для перетаскивания и отладку кучи кода на Rust. Некоторое время назад я создал приложение со строкой меню для macOS под названием Quickgif . Оно удовлетворило мою давнюю потребность — иметь инструмент для выборки GIFкартинок, который можно использовать в любом приложении, не загружая GIFки вручную и не имея дела с разными реализациями, используемыми в других программах. Я решил написать такое приложение на Flutter, чтобы проверить, можно ли добиться нативного восприятия без написания полноценного нативного macOSприложения. После некоторых экспериментов приложение стало ощущаться довольно нативным и плавным (по крайней мере, для меня). Я выпустил приложение, и оно набрало немного пользователей, которые, казалось бы, оставались им довольны Это нехорошо. И чем дольше вы скроллите, тем хуже. Quickgif справляется с прокруткой невероятно длинного списка GIFок, загружаемого напрямую через API Tenor. Tenor возвращает до 50 GIF за один запрос, при заданной начальной позиции. Это удобно, потому что позволяет подгружать nное количество GIF по мере прокрутки пользователем. И именно так работает Quickgif: он держит в памяти до n GIF и запрашивает ещё по мере того, как пользователь скроллит список. Однако если мы не выгружаем из памяти GIFки, которые находятся выше по списку, в итоге получаем огромное потребление памяти, которое резко увеличивается по мере прокрутки. Давайте подробно проверим, действительно ли это происходит. Сначала я запустил режим профилирования Flutter, который, на мой взгляд, довольно удобен. Это быстро подтвердило моё подозрение, что у нас есть проблемы с выгрузкой картинок из памяти после того, как мы их пролистали Давайте посмотрим, как реализован список (упрощённая версия ниже) StreamBuilder обрабатывает поток входящих GIFок, которые динамически загружаются, как только пользователь прокручивает список дальше определённого порога. Затем мы загружаем в память новую пачку GIFок и добавляем их в список. MasonryGridView — это часть библиотеки для отображения сеток под названием flutter_staggered_grid_view , которая под капотом использует BoxScrollView и делегат с простым названием SliverSimpleGridDelegateWithMaxCrossAxisExtent. На мой взгляд, это похоже на обычные реализации списков во Flutter. Кроме того, я уже ограничил cacheExtend всего лишь 10 изображениями. Поэтому чрезмерное кэширование, похоже, не является проблемой. GifContainer был намеренно реализован как виджет, не сохраняющий состояния и использует CachedNetworkImage под капотом. CachedNetworkImage — отличная штука: как следует из названия, он кэширует загруженные изображения на диске, чтобы потом можно было быстро их доставать. Этот инструмент сэкономил мне много времени и во многом благодаря нему прокрутка в приложении работает плавно. Однако после некоторых исследований оказалось, что я не единственный, кто сталкивается с проблемами потребления памяти при использовании этого виджета . Я попробовал некоторые рекомендации из обсуждения, но не увидел значительных результатов. Более того, другие сообщают о ещё более серьёзных проблемах с памятью при использовании стандартных Flutterвиджетов ListView и Image. Давайте опробуем некоторые рекомендации из того обсуждения и используем ExtendedImage.network , который поддерживает кэширование и включает флаг clearMemoryCacheWhenDispose. В результате потребление памяти стабильно держится на уровне 500 МБ, и оно, похоже, не растёт при активной прокрутке. Это уже более чем вдвое меньше, чем раньше. Но 500 МБ всё ещё слишком много, особенно учитывая, что приложение работает в фоне. Я сам пользуюсь несколькими приложениями в строке меню, и похоже, что по крайней мере JetBrains Toolbox и ещё некоторые сталкиваются с похожими проблемами с памятью. Тем не менее, я не хотел мириться с таким большим постоянным потреблением памяти. Режим профилирования Flutter ранее показал, что сам движок и некоторые платформенные плагины занимают довольно много памяти. Для примера: запуск базового примерприложения Flutter в режиме release занимает около 170 МБ, пока оно активно на моей машине. А что если мы будем полностью завершать движок Flutter и его плагины, когда приложение находится в фоне? Это освободило бы (почти) всё. Тогда давайте посмотрим, как Flutter обычно отображает приложения на macOS. Вот как запускается стандартное flutterприложение на macOS. Мы создаём новый NSWindow, ждём, пока приложение «проснётся», добавляем FlutterViewController, регистрируем плагины и на этом заканчиваем. Это работает для большинства macOSприложений, но так как мы говорим о приложении для строки меню, мы не хотим сразу запускать NSWindow — мы хотим показать окно только после того, как пользователь нажмёт на маленькую иконку в строке меню, показанную ниже. На GitHub есть отличный пример проекта, показывающий, как сделать приложение для строки меню с Flutter, так как на данный момент это не поддерживается напрямую. Моя реализация в основном основывалась на этом примере. Ниже приведены некоторые из соответствующих частей кода: Обеспечивает, чтобы приложение не завершалось после закрытия Присоединяет FlutterViewController Flutter к нашему Popover Создает StatusBarController, который в контексте этого поста не очень важен Но такая реализация никогда не освобождает FlutterViewController и его движок, так как App Kit сам по себе, похоже, поддерживает его работу. Давайте изменим это, расширив FlutterViewController и явно завершая работу движка после закрытия панели. После долгих манипуляций и полунедельного простоя в попытках заставить NSPopover вести себя так, как я хочу, я в итоге перешёл на NSPanel, что болееменее упростило задачу. Реализация, к которой я пришёл, выглядит примерно так: Как выглядит использование оперативной памяти после наших изменений, когда приложение находится в фоне? Уже лучше! Мы снизили потребление памяти в фоне более чем на 90%. Тем не менее, 80 МБ всё ещё много для крошечного приложения, но пока я вполне доволен, учитывая, что это не нативное приложение. Поскольку Quickgif требует множества функций, тесно связанных с платформой, на которой оно работает, я довольно рано добавил пакет super_native_extensions во время начальной разработки. Этот пакет просто отличный: он позволяет пользователям перетаскивать GIF прямо в любое приложение, добавляет поддержку горячих клавиш и управляет состоянием буфера обмена за меня. Пакет также официально поддерживается самим Flutter . Однако, так как мы теперь завершаем работу движка Flutter, события клавиатуры не будут доходить до Dart, и приложение не сможет запускаться. Поэтому я в итоге использовал отличный пакет Hotkey от Swift, удалив любую работу с горячими клавишами из super_native_extensions. Но, судя по всему , пакет поглощает все macOSсобытия горячих клавиш сразу после запуска, ломая часть функционала приложения. К счастью, это не критично — я форкнул плагин и отключил часть с горячими клавишами. Далее я столкнулся со случайными сбоями, связанными с тем, что я завершал и запускал новые движки каждый раз, когда пользователь открывал или закрывал приложение. Пользователи могут делать это довольно быстро, потому что Quickgif можно запускать и скрывать через глобальное сочетание клавиш. Сбои, похоже, были связаны с тем же пакетом. Я начал разбираться и в итоге немного изучил, как работает super_native_extensions. Удивительно, но большая часть пакета написана на Rust, что позволяет автору создавать платформонезависимый код, например, связанный с перетаскиванием, на одном языке. О его подходе можно почитать в этой статье . Немного разобравшись в проблеме, я пришёл к следующему: Для поддержки перетаскивния и других функций super_native_extensions внутренне использует IrondashEngineContext, чтобы получить FlutterView, сам движок и прочее. Фрагмент выше показывает процесс регистрации плагина и то, как он отслеживает жизненный цикл движка. Похоже, текущая архитектура Flutterплагинов не особенно подходит для моего случая, который требует частого создания и уничтожения экземпляров движка. Я пытался исправить некоторые состояния гонки, которые, вероятно, возникают изза того, как плагин должен отслеживать экземпляр движка, но в итоге пришлось полностью отказаться от библиотеки. К счастью, мне были нужны всего две функции: выброс файлов за пределы приложения и управление буфером обмена. Для управления буфером обмена есть множество Flutterпакетов для разных платформ, проблем с этим нет. Но я не смог найти жизнеспособную альтернативу для перетаскивания произвольных файлов за пределы главного окна приложения. В итоге я написал собственную реализацию, названную flutter_drop . Поскольку Quickgif доступен только для macOS на данный момент, реализация оказалась удивительно простой, и большую часть работы я закончил за деньдва. Я не планирую расширять или публиковать плагин в ближайшее время, так как super_drag_and_drop уже покрывает большинство сценариев, поддерживает все основные платформы и имеет больше функций. Но, возможно, комуто он окажется полезен. Далее я заметил, что иногда в приложение не поступает ввод с клавиатуры. Мне удавалось воспроизвести проблему с переменным успехом, когда я открывал приложение через его горячую клавишу. Вот что появлялось в логах A KeyUpEvent is dispatched, but the state shows that the physical key is not pressed. Покопавшись в исходниках Flutter, можно увидеть множество условий, которые проверяют, что клавиатурный конечный автомат Flutter не находится в некорректном состоянии. Также можно найти тикет на GitHub, где люди сталкиваются с похожими проблемами . К счастью, по умолчанию assertы в Dart не выполняются в релизных сборках. И приложение всё равно работает нормально. Но это доставило мне немало головной боли. Когда я впервые прочитал отзывы, я ожидал, что мне придётся исправить простую проблему с ленивой загрузкой списка, на что ушло бы полдня. На деле же мне пришлось отлаживать большое количество кода, написанного как минимум на четырёх разных языках программирования, создать собственный flutterhost и написать свой плагин для перетаскивания. Это было очень интересно, и я многому научился! Но также это доставило массу головной боли в поиске надёжных решений. Надеюсь, ктото другой, наткнувшись на это, сможет сэкономить время. Возникли бы у меня эти проблемы, если бы я просто написал приложение напрямую на SwiftUI? Скорее всего, нет. Стал бы я снова делать чтото подобное на Flutter? Вероятно, да — если бы целился в другие платформы. Понравилось ли мне использовать Flutter в процессе разработки? Определённо. Я смог очень быстро создать первоначальный прототип благодаря простоте DartFlutter, экосистеме и широкой распространённости фреймворка. В сравнении с документацией Apple, это было проще простого. Рекомендовал бы я Flutter для создания macOSприложений? Возможно. Если у вас уже есть опыт с ним на мобильных платформах — дерзайте! В противном случае изучите другие многочисленные варианты или просто используйте SwiftUI, если вам нужна поддержка только для macOS.
11,163
https://habr.com/ru/companies/eremexru/articles/975746/
habr.com
В этой статье мы рассмотрим централизованное управление версиями пакетов, а также разберем настройку приватного NuGetсервера BaGet для эффективной работы в изолированных средах. Мы уверены, что статья будет полезна многим российским разработчикам, поскольку NET разработка в изолированных средах в нашей стране действительно широко распространена. Бывалые разработчики помнят времена когда NuGet еще не был частью платформы. Если вы все еще разрабатываете под .NET Framework, вам будет нужен отдельный nuget.exe. Сейчас нет никакого смысла использовать бинарные файлы NuGet. Менеджер пакетов теперь входит в состав NET SDK и доступен через команды dotnet nuget. Допустим, вы создали проект приложения, используя шаблоны: Если вы делаете простой одноразовый проект, этот подход достаточно хорош. Но представьте, что будет, если у вас таких проектов несколько. Версии пакетов, прописанные прямо в .csproj, будут доставлять вам боль при обновлениях. Для решения этой проблемы придумали централизованное управление версиями. Создадим файл Directory.Packages.props рядом с проектом. Обратите внимание на опцию ManagePackageVersionsCentrally и на отсутствие версий у зависимостей в файле проекта. Версии зависимостей теперь хранятся в Directory.Packages.props. В файле Directory.Packages.props несколько раз повторяется номер версии Avalonia. При обновлении придётся в нескольких местах менять его. Можно случайно забыть. Давайте это улучшим. В файле Directory.Build.props можно хранить настройки, общие для всех проектов. Поэтому опция ManagePackageVersionsCentrally из проекта переезжает в этот файл. Мы задали переменную MSBuild под названием AvaloniaVersion и теперь можем переписать Directory.Packages.props: Более подробро про централизованное управление версиями можно почитать в этой статье https:learn.microsoft.comenusnugetconsumepackagesCentralPackageManagement В итоге должна получиться структура файлов как на картинке Следует заметить, что некоторые шаблоны Avalonia уже настроены на централизованное управление пакетами. Например, шаблон avalonia.xplat. Возможно, после этой статьи вы станете применять его чаще. На этом можно было бы и завершить часть статьи, посвящённую эффективному применению NuGetпакетов в .NETразработке. Но, поскольку в России популярна разработка в закрытых контурах предприятий, расскажем ещё про кеши NuGet и про приватные галереи. При работе с NuGet на машине разработчика есть два типа кешей. httpcache — он хранит информацию о доступных в галерее пакетах и их версиях. Некоторые про него не знают. И, например, после загрузки нового пакета в галерею негодуют, почему dotnet restore не видит новый пакет. К счастью, у httpcache короткое время жизни, и спустя несколько минут dotnet restore начинает магически работать как ожидается. Чтобы не ждать и не надеяться на магию, достаточно просто почистить кеш: Второй кеш — более известный. Называется globalpackages. Кеш globalpackages тоже можно почистить командой: Это бывает нужно, например, когда необходимо освободить место на диске или если у вас есть повреждённые пакеты. Кеш globalpackages любят использовать неправильно. При разработке в закрытом контуре часто притаскивают во внутреннюю сеть содержимое папки .nugetpackages вместо того, чтобы настроить галерею пакетов. Есть много разных NuGetсерверов. Мы остановились на BaGet изза того, что он умеет сам пополнять галерею пакетов из интернета. Когда вы собираете проект, который содержит зависимости, отсутствующие в приватной галерее, BaGet умеет ходить на на nuget.org, и автоматом пополнять вашу локальную галлерею пакетов. BaGet vs BaGetter: разработка BaGet сейчас не ведётся, но у него есть форк, который называется BaGetter. Он активно развивается сейчас. Мы будем рассматривать в этой статье именно BaGet. У BaGet есть старая проблема https:github.comloicsharmaBaGetissues513issuecomment1535715536 Она проявилась у нас при попытке загрузки пакета https:www.nuget.orgpackagesMagick.NETQ8AnyCPU в приватную галлерею. Мы решили эту проблему в своем локальном форке BaGet. На переход BaGetter который уже содержит этот фикс мы пока не решились. Настройка BaGet. Наверное, нет смысла пересказывать инструкции. Мы рекомендуем установку через Docker: https:loicsharma.github.ioBaGetinstallationdocker . После настройки сервера у вас будет APIключ, с помощью которого можно публиковать пакеты. Если вы работаете в закрытом контуре, скорее всего, после настройки BaGet вы захотите загрузить в него пакеты из вашего локального кеша пакетов. Чтобы использовать приватную галерею в командных проектах, мы рекомендуем в корневой папке создать nuget.config и добавить этот файл в систему контроля версий. Таким образом, настройки приватной галереи получат все разработчики, когда заберут себе последнюю версию из системы контроля версий. Поскольку мы не настраивали HTTPS для приватной галереи пакетов, кроме собственно адреса галереи, конфиг NuGet содержит настройки, которые разрешают HTTP: allowInsecureConnections. Без этого dotnet не будет принимать пакеты из галереи. Теперь вы знаете как правильно потреблять NuGet пакеты в ваших проектах. В следующей статье мы рассмотрим более продвинутые сценарии применения которые включают создание собственных NuGet пакетов что позволит использовать код между проектами и декомпозировать гигантские монорепы.
5,294
https://habr.com/ru/articles/976452/
habr.com
Привет Хабр! Это моя первая статья тут, я надеюсь получилось читабельно и интересно :) Как и следует из названия, в этой статье мы рассмотрим небольшой проект логера, написанный мною на языке golang. За основу взят встроенный и знакомый многим пакет logslog. Почему Мультилогер? Все просто, как и следует из названия, пакет содержит функционал записи логов в несколько хранилищ одновременно. Что нужно для подключения нового хранилища? Для подключения сначала нужно реализовать интерфейс, предоставляемый пакетом, а затем собственно, подключить свою реализацию к мультилогеру. В общем "стандартный стандарт" во взаимодействии современных компонентов программных систем между собой. В данной статье, для демонстрации функционала мультилогера, в качестве хранилищ, я использую нереляционную базу данных Mongo DB, а также самый простой православный txt файл. Такой выбор обусловлен простотой настройки, а также удобством хранения, каждый лог представляет из себя json структуру, хранение которой, например в реляционной БД, затруднителен и избыточен. По мимо логирования в хранилища, логи, пишутся и в консоль приложения, куда же без этого. А так, при желании, можно подключить любое другое хранилище, при этом различные схемы безопасности доступа, методы записи и т.п уже лажат на плечах пользователя пакета. В данном случае описан концепт, который конечно же можно развивать. Всё описанное в этой статье, строго моё видение такой системы, критика так же принимается, всегда интересно услышать мнение читателей. Система прототип, цель написания демонстрация некоторых функций slog пакета, а также своих реализаций функционала мультилогирования. Представлю Вам, небольшую таблицу, содержащую структуру проекта (см. ниже). Сначала была точка!, точка входа! в cmdmain.go файле, выполняется вызов нашего пакета. Абстрактно можно представить, что это сторонняя программа, использующая логер. Ниже представлен код из main файла (описание работы которого будет дальше по ходу статьи) Всё что лежит в каталоге pkg, переиспользуемый набор пакетов, относящийся к абстрактной сторонней программе и нужен также для демонстрации функционала логера. Ну и собственно каталог internal, содержимое которого и является нашим "виновником торжества" логером. Создадим новый логер (31 стр.). Сигнатура функции NewMultiLogger пакета internallogger ниже. func NewMultiLogger(stg model.SettingsLogger, gr connect.GroupConnect) MultiLogger В качестве аргументов функция принимает два параметра, а именно: настройки ( stg ) и группы ( gr ) подключений. Группа ( gr ). Представляет из себя срез структур, где каждая структура содержит схему для настройки нового подключения логера. При создании новой группы, происходит автоматическая базовая валидация всех подключений, на предмет дублирования их адресов и наименований. Остальная защита от "задубливания" ложится на плечи разработчика, использующего пакет. Группа создана, нужно её заполнить. Ниже представлена структура, с описанием полей нового подключения. Создадим новую группу и добавим в неё подключение логер (15 стр.). Для создания подключения используется отдельный метод NewConnect пакета internalconnect ниже его сигнатура: func NewConnect(name string, lvs []slog.Level, conn repository.Connect, stg repository.Settings, ctx context.Context) LogConnect Функция содержит ряд аргументов, а именно: name наименование подключения, lvs перечень уровней, которые будут использоваться этим подключением, conn реализация подключения, stg структура настроек подлючения, а также ctx контекст для управления как подключениями в группе, так и при реализации конкретным подключением. При инициализации новой схемы подключения, в коде выполняются следующие действия: происходит валидация аргументов, инициализация подключения, а также создание отдельного канала со слушателем в лице горутины, для реализации закрытия подключения (пример горутины ниже). Закрытие подключений инициализируется общим контекстом верхнего уровня, который необходимо передать в каждое подключение группы. В примере выше, ошибка закрытия, заканчивается паникой ) Чтобы страшно стало! Как и упомяналось раннее, в проекте, в качестве хранилища логов, я использую Mongo DB. Поэтому, после того как мы определились с хранилищем, необходимо написать функционал для взаимодействия его с логером, определиться с уровнями логирования и настройками подключения. Для этого идём в пакет internalrepositoryrepository и смотрим что нам необходимо реализовать для этого. Ниже как раз представлены описания интерфейсов и структуры настроек, предоставляемые этим пакетом. Стоит сказать пару слов о методе InsertLog(part string, data []byte) error , а именно о его аргументах, data это слайс байтов лога, а part это имя раздела, сюда попадёт строковое наименование лога, после отсева его в обработчике. Эти параметры конечно же стоит учитывать при написании своей реализации. Для статьи написан такой пример реализации тестового подключения к MongoDB. В этом подключении реализуется независимая от логгера схема записи логов по разделам. Уровни Error и Warn попадают в раздел System, что определено переменной mongoAlias . Переменная mLvl в данном случае, содержит перечень уровней, которые будут сохранены в бд. Понятное дело, что все параметры желательно делать настраиваемыми через конфиг. файлы, однако для демонстрации работы логера вполне подойдет и такой хардкод. Настройки ( stg ). Из примера выше, Вы уже увидили, что помимо реализации подключения, необходимо так же передать в схему настроек, и сами настройки подключения, в логере это реализовано ввиде структуры repository.Settings пакета internalmodel. Ниже, собственно и представлена структура настроек возможных. Поле Conv ожидает, некоторую функцию, которая будет использована логером для преобразования уровней лога из string в формат slog.Level. Такой функционал выделен для возможной реализации своих уровней, так как в таком случае сравнение уже требуется выполнить самостоятельно. Поле PreSave позволяет передать функцию, со своей реализацией обработки лога перед его непосредственной фильтрацией и сохранением. Описание других полей приведено в коде, и вряд ли как то требует дополнительных объяснений. Единственное надо сказать, поле valid , это внутреннее поле структуры и оно заполняется автоматически при вызове метода валидации (метод так же вызывается логером автоматически). Ах, да, точно! Еще одно поле HdlOpt , если Вы знакомы с библиотекой slog, то должны быть в курсе, о встроенных опциях handler (обработчика), так вот, они передаются также через эту структуру. P.s самым верхним уровнем логирования приложения я установил уровень Debug. По итогу вот такая структура настроек у меня получилась. P.s Утилита utils.LogConvert в моём случае обычный switch, по этому я не вижу смысла дополнительно удлиннять её описанием эту статью. Вот мы и добрались до самого вкусного, внутреннее устройство логера :) Сам по себе логер "наследуется" методом встраивания стандартого slog.Logger . После чего методом NewMultiLogger ,сигнатура которого была рассмотрена выше, выполняется валидация параметров, а так же создание нового handler, в данном случае handler.NewMultiHandler. Ниже представлена часть кода из пакета internallogger. Handler представлен двумя структурами, непосредственно самим handler и опциями для его настройки. Следует подробнее рассказать про поле, excSource это поле, как и написано в его описании, является каналом string, который слушаеся Writer для исключения конкретного лога из записи. Данные для этого канала, извлекаются из контекста лога в методе func (ch LogHandler) Handle(ctx context.Context, record slog.Record) error . Пример ниже, демонстрирует логи такого вида, в данном случае логи с контекстом "mongo", будут исключены из записи в MongoDB. Вернёмся к описанию Handler, ниже представлена сигнатура метода создания нового обработчика. func NewMultiHandler(opts LogHandlerOptions) LogHandler При создании нового обработчика, создаётся новый канал для исключения уровней, а так же новый "экземпляр" slog.NewJSONHandler (см. код ниже). Основное действие мультизаписи логов, разворачивается в Writer , переданном первым аргументом JsonHandler (см. код ниже). Структура LogWriter , реализует интерфейс io.Writer , таким образом в методе Write , слайс байтов лога преобразуется ( json.Unmarshal(p, log) ) в техническую модель лога, которая затем попадает в callbackфункцию. Функция в свою же очередь как раз и инициализирует запись логов в хранилища, файл ( file.Write ) и консоль приложения ( os.Stdout.Write ) (см. код ниже). Функционал не претендует на полноценную систему логирования, это скорее прототип, то видение, как это можно реализовать. По моему мнению, мультилогер вышел достаточно компактным, что касается количества строк кода, а также не содержащим никаких лишних реализаций. Описание может быть не совсем полное, некоторая часть кода, осталась не описанной, но это по большей части касается раздела pkg , который косвенно относится к логеру (есть публичная ссылка на репозиторий).
8,990
https://habr.com/ru/companies/axiomjdk/articles/972938/
habr.com
За год с момента анонса проект OpenIDE вырос в стабильную, привычную и активно используемую IDE, которую все чаще выбирают разработчики и компании. Мы (консорциум из трех компаний « Группа Астра », Haulmont и Axiom JDK ), создали её быстрой, предсказуемой и полностью доступной и теперь готовы к следующему шагу. В этой статье — о том, что мы сделали, зачем мы это делаем и куда дальше движется OpenIDE. С самого начала казалось, что всё должно быть просто. Бесплатная IDE, открытый код, удобный интерфейс, всё на русском — что тут может пойти не так? Ожидалось, достаточно выложить проект и рассказать о нём, и люди сразу начнут пользоваться продуктом, ведь он решает их задачу. Однако реальность оказалась сложнее: опенсорс – это не только открытый код, это ещё и доверие. А доверие нужно заслужить. Даже бесплатное программное обеспечение не гарантирует массового использования. Пользователи хотят знать, кто стоит за проектом, как часто выходят обновления, кто отвечает за ошибки и насколько надежен инструмент. OpenIDE решает две разные, но связанные задачи. Для разработчиков это, в первую очередь, комфорт. Речь про возможность работать в привычной среде с теми же сочетаниями клавиш, поведением, навигацией и отладкой – без «ломки» и необходимости переучиваться. Наша цель состояла в том, чтобы переход на OpenIDE шел максимально естественно: разработчик продолжает писать код, почти не замечая, что работает в другой IDE. Для компаний OpenIDE обеспечивает безопасность и предсказуемость. Сегодня даже инструмент разработки может создавать риски и стать "уязвимостью" – юридической, технологической или репутационной. Используя OpenIDE, компании получают контроль над своим инструментарием и независимость от внешних поставщиков. Многим знакомы такие истории. Разработка в компании идет по плану — и вдруг лицензии на ключевые инструменты перестают продлеваться. Сервер проверки лицензий становится недоступен, ключи больше не проходят активацию, и команда фактически останавливается. Задачи продолжают гореть, сроки поджимают, но IDE просто не запускается. А ведь это "станок для разработчиков". Пока лично не столкнёшься, кажется, что это мелочь. Однако день простоя легко превращается в потерю денег, срыв релизов и серьезный стресс для всей команды. Из таких ситуаций и приходит понимание, почему важно иметь надежную IDE, которая доступна локально и не зависит от внешних решений и инфраструктуры . Некоторые пытаются искать обходные решения — пиратские сборки, ключи с «серых» сайтов, бесконечно продлеваемые пробные версии. Но это — зона повышенного риска: вместе с подобной сборкой можно незаметно установить вирус, майнер или троян. Мне попадались случаи, когда злоумышленники какимто образом добирались до Jenkins или других компонентов инфраструктуры и наносили серьёзный ущерб: от нарушенной работы CICDпрактик до шифрования репозиториев. И хотя в этих инцидентах не фигурировали взломанные IDE, логика атаки вполне очевидна: если злоумышленник может внедрить вредонос в окружение разработчика, то «сломанная» IDE становится одним из потенциально удобных векторов атаки. По сути, это вопрос времени. Как только станет массовым использование неофициальных сборок (если уже не стало), злоумышленники неизбежно обратят внимание на этот канал — и будут активно его использовать. Именно поэтому важно, чтобы основным рабочим инструментом была доверенная, контролируемая и безопасная IDE. В последние пару лет появился новый вызов – искусственный интеллект. Некоторые вендоры прямо заявляют, что их AIассистенты обучаются на пользовательском коде. Если вы работаете над закрытым продуктом, это существенный риск: ваш приватный код может незаметно попасть в чужую обучающую выборку. OpenIDE, напротив, полностью локален. Мы не передаём исходный код за границу и не отправляем телеметрию в сторонние облачные сервисы. Для компаний, особенно крупных, это вопрос доверия и информационной безопасности. С момента анонса OpenIDE мы провели большую работу. Собрали «чистую» IDE с полностью локализованным процессом сборки и обновления. Весь исходный код продукта и необходимая инфраструктура находятся на территории России, OpenIDE работает на собственном рантайме от Axiom JDK . Мы наладили регулярные обновления, создали внутренние зеркала зависимостей и обеспечили стабильность релизов. Кроме того, развивается OpenIDE Marketplace – наша собственная площадка плагинов. Мы начали с того, что отобрали наиболее востребованные opensource плагины из JetBrains Marketplace, лицензии которых позволяют свободную редистрибуцию. В первую очередь были добавлены популярные инструменты Lombok, MapStruct Support, Python CE и другие. Там, где лицензия разрешала только использование кода, но не распространение готовой сборки, мы пересобрали плагин своими силами. Marketplace постоянно растёт. Мы добавляем плагины не только исходя из их популярности, но и по запросам пользователей. У нас есть общий чат, где разработчики предлагают добавить нужные инструменты — и мы стараемся реагировать на эти запросы быстро и внимательно. Мы добавляем в Marketplace не только популярные плагины, но и те, которые важны отдельным командам, индивидуальным разработчикам и конкретным проектам. Например: Easy Code Screenshots , Vaadin и другие. Кстати, в этом году плагины в Marketplace начали публиковать и сторонние компании. Когда мы начали напрямую общаться с корпоративными клиентами, всплыла одна показательная фраза: «Нам нравится OpenIDE, но нам некуда «занести». Под «занести» в деловом контексте подразумевается возможность официально сотрудничать — заключить договор, получить поддержку по SLA, иметь понятные гарантии и точки контакта. Крупный бизнес не может просто так использовать бесплатную IDE – ему нужны юридически оформленные обязательства и надёжная поддержка. Кроме того, мы регулярно получаем запросы на расширение функциональности: поддержку дополнительных языков программирования, интеграцию новых инструментов, улучшение работы с определёнными технологиями. Мы понимаем важность этих запросов, но в рамках текущего бюджета и модели открытого проекта не можем реализовать их в нужном масштабе и с должной скоростью. Поэтому возникла идея OpenIDE Pro — корпоративного продукта, который позволит обеспечивать техническую поддержку на уровне необходимых стандартов и развивать новые возможности по запросам пользователей. Кроме поддержки в версии OpenIDE Pro появится расширенный набор возможностей, которые выходят за рамки communityверсии и делают продукт полноценным инструментом для промышленной и мультистековой разработки. Важно отметить, что в свободной OpenIDE уже есть широкая базовая поддержка множества языков благодаря LSPплагину . Мы будем продолжать его развивать: у нас есть идеи по улучшению стабильности, производительности и интеграции с инструментами экосистемы. При этом для OpenIDE Pro мы готовим расширенную, углублённую поддержку языков , которая выходит за рамки возможностей LSP. Улучшенная навигация, анализ кода, рефакторинги, интеграция со сборкой и фреймворками — всё это войдет в Proверсию. полноценная поддержка Go : анализ кода, навигация, рефакторинги, интеграция со сборкой; развитие инструментов Javaплатформы, включая профилирование и анализ приложений; средства разработки для сервера приложений Libercat. улучшенная поддержка современных фреймворков: React , Vue , Angular ; возможность запуска и отладки фронтендприложений прямо из IDE; расширенные средства работы с JavaScript и TypeScript. Разработанный Axiom JDK инструмент для лёгкого мониторинга и профилирования живых Javaприложений; Database Client для работы с базами данных: запросы, схемы, просмотр данных; HTTP Client для тестирования API и интеграционных сценариев. генерация Spring Bootпроектов из готовых шаблонов и корпоративных пресетов; автоматическая генерация сущностей, репозиториев, сервисов, DTO и RESTконтроллеров; создание CRUDфункциональности на основе модели данных; встроенная поддержка JPA и удобная навигация по сущностям; быстрый переход от генерации к редактированию и запуску приложения внутри IDE. Мы также рассматриваем возможность расширить поддержку дополнительных языков программирования. Среди направлений, которые изучаем на следующий год, — C и С . Это ранние исследования, мы не делаем формальных анонсов, но видим интерес со стороны разработчиков и компаний и понимаем, что часть этих технологических направлений со временем может войти в OpenIDE Pro. Всё это формирует новый уровень профессиональных возможностей, ориентированных на корпоративные команды и широкий технологический стек. Первая версия OpenIDE Pro планируется к выходу в первом квартале 2026 года. Мы уже ведем активнуюй разработку. В релиз войдут ключевые возможности, которые расширяют базовую версию OpenIDE и закрывают основные запросы от корпоративных команд. Параллельно готовим инфраструктуру: систему обслуживания клиентов, процессы реагирования по SLA, а также личный кабинет для корпоративных пользователей и авторов плагинов. Наша цель — предоставить компаниям в 2026 году стабильный, предсказуемый и юридически оформленный инструмент, который можно безопасно и официально использовать в промышленной разработке. OpenIDE Pro будет коммерческим продуктом. Это ответ на запросы рынка, которых получили немало, и закономерное решение: корпоративная поддержка требует реальных ресурсов — инженеров, времени на тестирование, инфраструктуры и процессов по SLA. Мы отвечаем за результат. Это серьезная инженерная работа, и она не может предоставляться бесплатно. При этом свободная версия OpenIDE будет развиваться параллельно, как открытый, доступный инструмент для всех разработчиков. Мы продолжим её создавать и поддерживать: базовая версия, Marketplace, плагины и регулярные обновления останутся открытыми и доступными всем. Более того, мы планируем усиливать бесплатную версию в нескольких направлениях: улучшение инструментов для повседневной разработки, включая навигацию, анализ и интеграции. OpenIDE Pro — это надстройка над открытой OpenIDE. Она нужна для компаний, которым важна предсказуемость, SLA и комплексная поставка всех инструментов из коробки. OpenIDE Pro позволяет развивать IDE глубже и быстрее. Это означает более качественную поддержку языков, улучшенный фронтендстек, мощные инструменты для Spring, профилирования, анализа и диагностики — всё то, что влияет на скорость и комфорт вашей ежедневной разработки. Это удобный инструмент, который появится на вашем рабочем месте. Наша цель проста: чтобы IDE была быстрой, предсказуемой и удобной, чтобы базовые вещи работали идеально, а сложные не мешали, а помогали быть продуктивнее. Проект OpenIDE изначально задумывался как вклад в развитие сообщества. Поэтому для университетов, колледжей, школ и образовательных программ OpenIDE Pro будет предоставляться бесплатно. Точно так же бесплатной Proверсия станет для всех, кто вносит вклад в опенсорс – коммитеров, контрибьюторов, мейнтейнеров. Мы хотим, чтобы разработчики, которые создают открытое ПО, имели доступ к современным инструментам – без ограничений, без лишней бюрократии, без зависимости от внешних факторов. Если хотите попасть в ранний доступ OpenIDE Pro — направляйте заявку на proopenide.ru . Будем рады принять вас.
11,162
https://habr.com/ru/articles/973938/
habr.com
Сначала я просто собирался написать комментарий к моему предыдущему тексту , в котором я рассказал, как за день на расте мне удалось написать новую, неспецифицированную, глючную и медленную реализацию половины OTP . Но пока я тот комментарий писал, внезапно оказалось, что, несмотря на общее положительное впечатление от раста, претензий к нему у меня набралось на целый текст. Ну что ж, заточите свои минусаторы, ниже — мой неполный и очень предвзятый список претензий к расту. прицепить текст на маркдауне к документации — фактически невозможно, есть костыли типа https:github.comGealcargoexternaldoc и директива ![doc include_str!("pathtofile.md")] , которая всё портит (и бибикает). Как надо: в Cargo.toml должен быть список файлов, которые я хочу превратить в отдельные страницы документации (видимые в левом меню на https:docs.rs) интерполяцию строк писал какойто герпетолог, ейбогу (или сиквелянт); неужели целесообразно заставлять читателя индексировать набор параметров глазами: " ", a, b, c ? матчи внутри одной функции вместо нескольких голов, компилируемых во внутренний матч — ну чуваки, вы вообще хоть одну завалящую статейку про «как оно сделано у соседей» читали, или сразу свой велосипед строить начали? Да и вообще, паттернматчинг после эрланговского выглядит убогим, я даже в Cure уже успел чтото подобное, но я не буду заявлять о готовности к продакшену, пока не реализую полную декомпозицию от x 1; 1 x до foo: bar: value, baz: 42 when value 42 struct . И вообще, хорошо бы иметь свой оператор для матча, как в эрланге. почему ссылки foo — не поведение по умолчанию?! Особенно учитывая, что в качестве аргумента функции для модификаций (мутабельно) можно передать только ссылку mut foo ? Ну ёмоё, сделайте всё ссылками и специально заставьте крохоборов вызывать оператор копирования если нужно чтото передавать по значению (в 2025 году это нужно трём с половиной людям, которые все равно предпочтут расту — ассемблер). А ведь есть еще и « умные указатели »! Как надо: самый простой вариант — по умолчанию всё ссылка; если нужен доступ по значению — его надо указывать эксплицитно: fn foo(mut self, val event: ) . Это ад. Всё, кроме этого — вкусовщина и вопрос привычки, но если в языке в 2025 году заявлено метапрограммирование — оно не может быть настолько убогим. метапрограммирование накостылено сбоку (что является, конечно, следствием отсутствия прямого доступа к AST). Какието метапеременные , пять разных типов макросов, нечитаемый синтаксис (код на расте в принципе легко проглатывается с листа даже теми, кто видит его впервые; первый же пример макроса в документации выглядит вот так: macro_rules! ambiguity ((i:ident) j:ident) ; . Единственная возможная реакция человека, столкнувшегося с этим перлом, — WTF? Вы издеваетесь, что ли? Почему нельзя было сделать почеловечески? Что с unquote — тоже неясно. В какомто смысле var отвечает за это, но я, даже реализовав свой макроатрибут, так до конца и не понял, как работает механизм quote unquote . с какогото хрена для макросов нужен отдельный крейт, такого гигантского WTF я со времен изучения настройки новелловской сети не помню. Как надо: как в эликсире (на худой случай — как в эрланге). Язык компилируемый, два прохода, гигиена и ультимативный эксплицитный unquote , в котором может быть практически любой код , а не то, что проглотит . какие тесты я кладу рядом с кодом, какие в папку test ? как в доктестах инициализировать контекст? как просто найти все доктесты в файле глазами? как запускать часть тестов асинхронно? Как надо: если не пропадёт запал, следующим шагом портирую mox и nimble_ownership . комментарии — это ад; 2025 год на дворе, но я не могу просто прочитать документацию перед функцией, нет — передо мной выстроен частокол ! . Ну как такто? Как надо: да как угодно, но только, чтобы в текст комментария не вторгались управляющие символы, не имеющие к нему никакого отношения. И чтобы блоки кода из документационных файлов, вставленных директивой ![doc include_str!("pathtofile.md")] , не пытались превратиться в доктесты и не ломали сборку (какие ещё доктесты в отвлеченных текстах, алё). Еще раз повторю, что язык мне в общем и целом понравился. Скорее всего, среди претензий выше многие вызваны моим невежеством — если так, буду благодарен за подсказки в комментариях. Писать «раст — лучший, автор — тупой, здесь так принято» — в комментариях большого смысла не имеет, автор в курсе.
4,417
https://habr.com/ru/articles/975656/
habr.com
Как будет работать новый закон, кого могут оштрафовать на сумму до 500 000 рублей, что делать предпринимателям и компаниям — разбираем главные вопросы. Коротко и по сути. Летом этого года Госдума приняла закон о запрете иностранных слов. Запрет коснется каждого предпринимателя и компанию. На подготовку дали восемь месяцев, и большая часть этого срока уже прошла. Я юрист по интеллектуальным правам. Товарные знаки, патенты и авторские права — это моя профессия. За законопроектами по иностранным словам слежу уже несколько лет. Ктото уже успел подготовиться, а ктото еще даже не начинал — сегодня в формате «вопросответ» разберем 10 главных вопросов: что известно на сегодня и как подготовиться, чтобы не влететь на штрафы. Да, правда. История законопроекта 4682298 — на сайте Госдумы . Сам текст закона — на сайте gov.ru . По мнению авторов законопроект нужен, чтобы защитить русский язык и ограничить англицизмы. Иностранными теперь считаются все слова, которых нет хотя бы в одном из четырех специальных словарей . Неважно, написано слово на латинице или кириллице. Нет в словаре — значит иностранное. Всё, что написано на латинице, теперь считается иностранными словами по умолчанию. Если слово написано на русском языке — нужно проверять по словарю. Например, слово «наггетсы» в нормативном словаре есть, а слова «стрипсы» там нет. Если у вас название компании или товара на английском языке, или это какоето несловарное слово на русском — его в разрешенном списке точно нет. Предпринимателям и компаниям — везде. Иностранные слова нельзя просто так использовать на вывесках, в онлайн и оффлайн рекламе, на сайтах, в описаниях товаров и услуг, на маркетплейсах. Обычным людям в живой речи — можно. Авторам в своих произведениях — тоже можно. Запрет иностранных слов пока что касается именно бизнеса. Все зависит от того, к каким именно нормам будут «привязывать» нарушения, связанные с использованием иностранных слов. Ответственность за нарушение закона о защите прав потребителей —до 10 тысяч рублей для юридических лиц ( ст. 14.8 КоАП РФ ). А вот если смотреть на закон «О рекламе», то здесь ответственность уже более внушительная — для юрлиц от 100 до 500 тысяч рублей ( ст. 14.3 КоАП РФ ). Отдельный интересный вопрос — как будут считать количество нарушений и количество штрафов. Если у компании на сайте нашлось много иностранных слов — могут выписать один штраф, а могут и за каждое слово отдельно. Как будет на практике — посмотрим. иностранное слово можно использовать, если рядом указан перевод иностранное слово можно использовать без перевода, если оно зарегистрировано как товарный знак Перевод нужно указывать тем же шрифтом, что и само иностранное слово. Нельзя написать большими буквами иностранное слово и гдето далеко и глубоко его перевод маленьким шрифтом. Слово и перевод должны быть одинакового размера. Для текстов и описаний на сайтах проблем особо нет — добавить перевод в текст и всё. А вот если у вас иностранные слова в логотипе, на вывеске, в домене или названии товара — вот тут уже сложнее. Скорее всего в таком случае речь идет о названии самой компании или ее продуктов. Указывать здесь перевод — это значит менять вывески, логотипы и получать корявые двойные названия в духе «CAMOMILE РОМАШКА». Не вариант. Для таких случаев в новом законе есть исключение — товарные знаки. Товарный знак — это название или логотип, зарегистрированное в Роспатенте. Такая регистрация дает своему владельцу монопольное право на бренд. И есть в законе по части товарных знаков одна важная особенность: владелец знака вправе использовать свой знак в том виде, в котором он зарегистрирован в Роспатенте. Даже если это иностранное слово. Получается, в названии или логотипе есть иностранные слова — их нужно зарегистрировать как товарный знак. Обратите внимание: в законе нет исключений для слов, которые только поданы в Роспатент, но еще не зарегистрированы как товарные знаки. Это значит, что к 1 марта 2026 года у вас похорошему уже должен быть зарегистрирован товарный знак, а не просто подана заявка. Учитывая, что средний срок обычной регистрации по моей практике 57 месяцев, а ускоренно 23 месяца — времени особото и не осталось. Нет. За уже зарегистрированные знаки уплачены госпошлины, регистрации действуют. Но есть вероятность, что рано или поздно в Роспатент поступит такое указание. В таком случае даже новые законы принимать не нужно будет — заявкам с иностранными словами могут начать отказывать в регистрации на основании «риска введения потребителя в заблуждение». Такой подход практиковался в Роспатенте 1015 лет назад, когда отказывали в регистрации знакам с иностранными именами, если заявитель был из России. Это делали для того, чтобы условный производитель обуви из Самары не мог зарегистрировать знак «Silvio Doretti», а потом его покупатели думали, что покупают итальянскую обувь. В общем, сейчас такого запрета нет, и наши заявки на товарные знаки с иностранными словами нормально проходят регистрацию. Но не факт, что так будет всегда. Сначала нужно проверить, какие у вас на сайте есть иностранные слова — вот по этим четырем словарям . Дальше по каждому из этих слов нужно решить, что делать. Три варианта: дополняем переводом: добавляем к «sale» — «sale (распродажа)» регистрируем как товарный знак: если вашего названия в словаре нет, а отказаться от него вы не готовы — проверяем название по реестрам Роспатента и подаем заявку Нормативные словари — это четыре огромных талмуда в сумме примерно на десять тысяч страниц. Проверять по ним каждое слово вручную — это жесть. Первое, о чем я подумал, когда их увидел — «А как эту проверку автоматизировать?». Ну, чтобы взять сайт, прогнать его через какуюто систему, и понять, какие слова теперь считаются иностранными. Пробовал с разными нейросетями — не получилось. В обычном пользовательском режиме они не справляются. Объем словарей слишком большой. В итоге на выходе получается брехня, галлюцинации и пропуски. В итоге мы с разработчиками придумали свой алгоритм, сейчас его тестируем. Если у вас есть свой сайт — давайте попробуем проверить. Посмотрим, какие есть иностранные слова и что насчет потенциальных товарных знаков. Пока мы все это только тестируем в узком кругу Хабра — само собой это бесплатно. Оставьте заявку мне в Яндексформе. Там простая форма на три поля — ссылка на сам сайт, контакт для связи по итогам проверки и ваши вопросы, если есть. https:forms.yandex.rucloud693a7584505690093417e3f7 Пока форма работает — значит можно записаться. 1015 сайтов мы точно сможем так проверить, а дальше посмотрим. Если будет получаться клево и полезно — будем продолжать. Если пост полезныйинтересный — поставьте плюсик, буду постить еще. Если надо спросить чтото частное для себя или своей компании, например, ваше название или лого посмотретьпроверить по настоящим базам, разобраться с регистрацией товарного знака, патентом или судом — пишите мне в личку в телеграме bchlf Если вам в целом интересна тема защиты своих интеллектуальных прав — у меня есть небольшой телеграмканал «Клуб правообладателей». Недавно написал и опубликовал в канале небольшую методичку «Как теряют миллионы на компенсациях и штрафах» — без смс и регистраций собрал в табличку типичные ошибки, на которых теряют деньги, и расписал, что по моей практике стоит делать заранее, чтобы не влететь.
7,279
https://habr.com/ru/companies/bothub/articles/975116/
habr.com
В своём последнем обращении к Уоллстрит Nvidia упомянула Майкла Бьюрри, прославившегося благодаря «Игре на понижение», чтобы опровергнуть его анализ пузыря ИИ и заверить общественность, что «они не Enron». Давайте начистоту: если многотриллионная компания вынуждена публично обращаться к одномуединственному финансовому аналитику по имени и заявлять, что она не Enron, это лучший способ заставить всех думать, что вы и есть новый Enron. Бьюрри ответил на этот довольно забавный выпад в своей статье на Substack , указав, что Nvidia совсем не похожа на Enron, а скорее напоминает Cisco. Это невероятно точное сравнение. Оно прорезает всю словесную шелуху и обнажает гниль в самом сердце пузыря ИИ. Однако я не думаю, что его предупреждение зашло достаточно далеко, потому что у Nvidia есть потенциал стать чемто гораздо худшим , чем Cisco. Ну, она, возможно, стала главным проигравшим в пузыре доткомов. Большинство людей, говоря о пузыре доткомов, вспоминают убыточные интернетстартапы с искусственным или раздутым спросом, вроде pets.com. Но, пожалуй, Cisco куда важнее. Они были дико прибыльным и доминирующим поставщиком сетевого оборудования. В 90е инвесторы спекулировали на том, что интернет может изменить правила игры в экономике, и пытались на этом заработать на раннем этапе, что вызвало взрывной рост спроса на подобную инфраструктуру. К 2000 году от 70% до 80% всех оптоволоконных кабелей и коммутаторов, составлявших интернет, были произведены Cisco. Это взвинтило прибыль и спекуляции до небес, подняв оценку Cisco до 500 миллиардов долларов к марту 2000 года, что сделало её самой дорогой компанией на планете в то время. На этот раз ИИстартапы вроде OpenAI дико убыточны изза искусственного и раздутого спроса. И на этот раз инфраструктура, на которую они создают спрос, это не сетевое оборудование Cisco, а датацентры для ИИ от Nvidia. Как и Cisco в 90е, Nvidia это зрелая и высокоприбыльная компания, доминирующая в этой сфере. Nvidia контролирует от 80% до 90% рынка чипов для ИИ. Чёрт возьми, как и Cisco когдато, Nvidia сейчас является самой дорогой компанией в мире с пиковой оценкой в 5 триллионов долларов в октябре 2025 года! Пузырь доткомов лопнул. Инвесторы осознали, что интернетбизнесы вроде pets.com не более чем спекулятивные предприятия практически без реального потребительского спроса. Затем, чтобы избежать рецессии, были повышены процентные ставки, что иссушило капитал, необходимый этим убыточным компаниям для работы, вызвав цунами интернетбанкротств. Это доказало, что гипотетический спрос, который подпитывал этот бум и спекуляции, просто ещё не существовал. Но Cisco поставила слишком много инфраструктуры, пытаясь удовлетворить этот мифический спрос, и большая часть оптоволоконного кабеля, проложенного за последнее десятилетие, оставалась неиспользованной годами. Эта неиспользуемая инфраструктура стала известна как «тёмное волокно», и это была серьёзная проблема. В результате спрос на новое оптоволокно упал примерно на 70%. Это сократило выручку Cisco более чем на 15%, но также уничтожило любую спекулятивную стоимость, обрушив цену её акций на 88%! Как и в случае с Cisco, спрос на инфраструктуру, который удовлетворяет Nvidia, не реальный, а искусственный и спекулятивный. Не забывайте, что совершенствование ИИ практически остановилось, только 5% пользователей OpenAI платят за сервис, а 75% доходов OpenAI поступают от корпоративных клиентов , несмотря на то, что более 95% пилотных проектов с использованием ИИ не принесли заметных результатов . Nvidia это современная Cisco. Спрос, который они удовлетворяют, не существует, и они создают огромный избыток предложения, который очень скоро ударит им в спину. Бьюрри абсолютно прав. Или нет? Потому что, если вглядеться в детали, Nvidia столкнётся с проблемами куда, куда более серьёзными, чем когдалибо были у Cisco! Информационный шум вокруг ИИ оглушает. Как отделить реальный сигнал от спекулятивного хайпа? Используйте тот же инструмент, что и создаёт этот шум, но в своих целях. Платформа BotHub это ваш прямой доступ к мощнейшим нейросетям. Здесь вы можете экспериментировать с разными моделями и сравнивать их стили. Всё это без VPN и с удобной оплатой российскими картами. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе прямо сейчас! Бьюрри указывает на вторую силу, усугубляющую этот избыток предложения, амортизацию чипов для ИИ. Как отмечает Бьюрри, вся индустрия ИИ завышает срок службы чипов в своих отчётах и сильно недооценивает их амортизацию. Вместо более реалистичного жизненного цикла до трёх лет, по истечении которого будут выпущены более эффективные и мощные чипы, они растягивают срок их службы до шести лет. Это означает, что и без того дико убыточный бизнес по владению и эксплуатации этой инфраструктуры ИИ на самом деле гораздо, гораздо менее прибылен, чем мы все думали. Генеральный директор Nvidia Дженсен Хуанг возражает, что их старые чипы всё ещё используются для менее интенсивных задач ИИ. Но даже он сам с собой не согласен. Он неоднократно заявлял, что их новейшие чипы будут настолько эффективны, что даже если конкуренты будут продавать свои чипы по нулевой цене, всё равно будет выгоднее покупать новейшие чипы Nvidia. Хуанг даже заявлял, что датацентрам будет выгоднее списывать свои старые чипы Nvidia раньше срока ради новых. Это также означает, что инфраструктура ИИ стоимостью в триллионы долларов, которая строится сейчас, устареет и потребует полной замены всего через несколько лет. Это хуже, чем избыток предложения это стремительно приближающееся цунами неликвидных активов! Это не просто снизит цены до критической точки; это обанкротит клиентов Nvidia. И это усугубит проблему, с которой Nvidia столкнётся, а Cisco никогда не сталкивалась. Nvidia может полностью обрушить свой собственный рынок, и Бьюрри этого пока не коснулся. Одна из главных причин, по которой Cisco отделалась лишь 15%ным падением выручки, заключалась в том, что её инфраструктура была географически ограничена. Кабель, соединяющий НьюЙорк и ЛосАнджелес, может использоваться только для передачи данных между этими двумя точками. В отличие от этого, продукты Nvidia не имеют географических ограничений. По определению, датацентры, использующие их чипы, являются частью «облачных вычислений», что означает, что любой человек на планете Земля может использовать их для любых своих вычислительных потребностей. Более того, Nvidia положила все яйца в одну корзину: 90% её выручки приходится на продажу чипов для датацентров . Так что же произойдёт, когда пузырь ИИ лопнет? В отличие от «тёмного волокна» Cisco, избыточные чипы Nvidia могут быть использованы на рынке обычных датацентров. Но это, в свою очередь, создаст избыток предложения на общем рынке датацентров. Учитывая, что к 2030 году на долю ИИнагрузок, по прогнозам, будет приходиться 70% спроса на датацентры, это может полностью обрушить общий рынок, сделав его нерентабельным и, в свою очередь, сведя спрос на чипы Nvidia почти к нулю. Таким образом, возможно, что Nvidia столкнётся с падением выручки почти на 90% , когда пузырь ИИ лопнет, благодаря тому, что они полностью уничтожат свой основной рынок. Cisco пережила падение оценки на 88% при падении выручки на 15%. Как вы думаете, что произойдёт с Nvidia? Вот почему сравнение Бьюрри Nvidia с Cisco хоть и точно, но не заходит достаточно далеко. Nvidia суждено упасть гораздо сильнее , чем когдалибо падала Cisco. Но, падая, она может уничтожить рынок датацентров, который поглотит её избыточное предложение. Не будем забывать, что AWS, подразделение общих датацентров Amazon, обеспечило 58% всей прибыли Amazon в 2024 году. Аналогичным образом, операции с общими датацентрами составляют значительную часть прибыли Google и Microsoft. Так что с ними произойдёт, когда рынок датацентров будет полностью затоплен? К сожалению, я не могу сказать, когда это произойдёт. Сам Бьюрри признал, что рынки в данный момент ведут себя нелогично. Но с моей точки зрения, вопрос не в том, произойдёт ли это, а в том, когда. А теперь ваша очередь. Что вы думаете по этому поводу? Согласны ли вы с мрачным прогнозом автора? Кажется ли вам сравнение с Cisco убедительным, или вы видите факторы, которые могут спасти Nvidia от подобной участи? Делитесь своими аргументами, прогнозами и сомнениями в комментариях.
8,292
https://habr.com/ru/companies/fsight/articles/973766/
habr.com
Привет. Меня зовут Евгений, и я продуктовый менеджер направления отчетности и визуализации данных в компании «Форсайт». Хотя корпоративная «Форсайт. Аналитическая платформа» (далее просто Платформа) имеет в своем арсенале большое число различного инструментария, на мой взгляд, именно инструменты отчетности фактически являются ключевым блоком и «лицом» Платформы и BIприложений, реализованных на ее основе. Ведь это первое, с чем сталкивается конечный пользователь и на что обращает внимание при работе: наличие необходимых функций, удобство построения пользовательского интерфейса, скорость работы — все это пользователи часто записывают именно на счет компонентов отчетности. Хочу поделиться с вами нашей «вендорской» историей о том, как развивался инструментарий отчетности в составе нашей Платформы, какие интересные компоненты появились у нас относительно недавно, и над чем новым «Форсайт» работает прямо сейчас. Итак, начинаем! История Платформы начинается с 1992 года. Старожилы могут ещё помнить версии Платформы под MSDOS, в которых уже появился конструктор отчетов со встроенным макроязыком. В начале 2000х актуальной версией Платформы был «Аналитический Комплекс версия 3.2» последняя мажорная версия в линейке 3.х. В качестве инструментария разработки Платформы тогда использовался Borland Delphi. Уже тогда существовало 2 ключевых инструмента отчетности, использующихся и по сей день. С одной стороны, к вашим услугам был удобный Excelподобный инструмент отчетности «отчет» (иногда его называли «регламентный отчет»). Инструмент мог работать и с многомерными кубами (ROLAPмодель), и с реляционными запросами, поддерживал иерархические измерения, диаграммы и графики, картографию, ну и в целом позволял создавать, что называется «pixelperfect» отчеты для просмотра, экспорта и печати. Поддерживался встроенный макроязык, обработка событий отчета. С другой стороны, был инструмент многомерного анализа «OLAPнавигатор», позволявший «покрутить» многомерные кубы в режиме ad hoc, прародитель современных selfservice инструментов. Следующим этапом развития стало полное обновление технологического стека в новой линейке Платформы, первая версия которой называлась «Аналитический комплекс Прогноз 5» (позднее переименованная в Prognoz Platform). Версия «4» была пропущена по «восточной» традиции, поскольку компания готовилась работать на международных рынках, в том числе в Азии. Фактически, продукт был переписан «с нуля», стек разработки перешел с Delphi на «плюсы», архитектура начала трансформироваться из клиентсерверной в трехзвенную, с выделенным сервером приложений, для работы с СУБД отказались от устаревшей библиотеки BDE, начал внедряться веб. «Регламентный отчет» получил возможность работать с новым системным API благодаря появлению объектноориентированного встроенного языка Fore. Расширился набор событий отчета, благодаря которым существенно возросли возможности кастомизации. Были внедрены новые виды графиков и диаграмм, расширены возможности визуального оформления данных и работы с измерениями. Если раньше при реализации отчетов часто приходилось оформлять данные из срезов прямо на листе, а часто также дооформлять их с использованием макроязыка уже после вычисления листа, то теперь все необходимые настройки оформления можно было задать непосредственно у среза данных. Немаловажным событием для «пятерки» было и появление блока ведения нормативносправочной информации (НСИ). Инструмент для быстрого анализа данных «OLAPнавигатор» трансформировался в экспрессотчет, в нем добавились функции интерактивного анализа «8020» и функции расширенной аналитики (анализ временных рядов, моделирование и прогнозирование). Также был представлен отдельный инструмент для создания дашбордов – «аналитические панели». Таким образом, внутри Платформы начала складываться своя экосистема инструментов отчетности, каждый из которых функционально дополнял друг друга. По мере выхода новых версий Платформы (7.х, 8.х, 9.х) у пользователей появлялись все новые возможности для формирования отчетности, перечислить все из них вряд ли представляется возможным. Из ключевых функций стоит отметить существенное расширение опций размещения и оформления иерархических измерений, опции нумерации строк и граф, пользовательские, альтернативные и атрибутивные иерархии в измерениях, перевод процесса создания экспрессотчетов и аналитических панелей полностью в веб. В виде отдельного компонента была реализована надстройка над регламентным отчетом «Интерактивная форма ввода». Этот компонент позволяет создавать большие формы просмотра и редактирования данных (включая «реестровые» формы ввода и «карточки»), позволяя объединять множество многомерных источников «под одной крышей». При этом компонент интегрируется со смежными компонентами – алгоритмами расчета и BPM, что позволило легко реализовывать расчеты «на лету» при вводе данных, внутриформенный и межформенный контроль, функции принятияотклонения документа при реализации бизнеспроцессов. Начиная с линейки версий 10.х весь функционал, все шаги по разработке прикладных систем и весь инструментарий платформы стали доступны в веббраузере. Хотя к концу 2010х годов Платформа уже обладала мощным арсеналом инструментов отчетности под любые задачи (регламентные отчеты, adhoc анализ, дашбординг, формы ввода с интегрированным BPM), всё же было ощущение, что чегото не хватает. Чего именно? Да, нам не хватало возможностей selfservice, когда бы рядовой пользователь Excel мог бы провести весь цикл анализа и визуализации данных полностью самостоятельно, начиная от загрузки файлового источника до построения готового дашборда, буквально в несколько кликов. Камнем преткновения здесь стал классический многомерный куб, ведь все инструменты отчетности, даже такие инструменты ad hoc анализа как «Экспрессотчет» и инструмент дашбординга «Аналитическая панель» требовали на вход уже готовые преднастроенные кубы. Хотя создание многомерного куба не является такой уж сложной задачей для опытного пользователя Платформы, всё же для рядового бизнеспользователя это задача не совсем тривиальна и требует знаний основ хранилищ данных (справочники, фактовые таблицы и т.д.). К тому же, даже уже имея набор преднастроенных многомерных кубов, построенных на корпоративном хранилище данных, не было легкого способа «из коробки» обогатить эти данные пользовательскими. Не все пользователи понимали саму парадигму построения многомерных кубов, в частности выделение справочников (измерений) в отдельные, независимые от данных сущности. Пользователи хотели строить измерения непосредственно из «широких» плоских таблиц. Какой же выход? Да, нам нужен новый продукт! Этим новым продуктом стал уже понастоящему полноценный selfservice инструмент для легкой бизнесаналитики – FlyBI. Инструмент был выпущен в начале 2022 года в виде отдельного продукта, при этом «под капотом» у него попрежнему использовалось ядро Платформы, адаптированное под новые нужды. Итак, что же нового смог предложить новый продукт? Инструмент «Модель данных» предназначен для моделирования данных с использованием «табличного» подхода, который в целом воспринимается пользователями как интуитивно более понятный по сравнению с «многомерным» (multidimensional) подходом. Он создаёт единую плоскую структуру, объединяя информацию из различных источников как СУБД, так и файлы по заданным правилам. Такая плоская структура содержит набор атрибутов, которые в дальнейшем могут рассматриваться как измерения или как факты (метрики). Фактически, модель данных стала для инструментов отчетности Платформы новым типом источника – табличным (tabular) источником (наряду с ROLAPмногомерными кубами и MOLAPданными в inmemory кэше). Особенность инструмента наличие удобного визуального конструктора, который упрощает построение связей между отдельными таблицами. Работает в двух режимах: прямого подключения к источникам данных и в режиме извлечения данных. В режиме извлечения инструмент автоматически материализует данные модели в аналитической витрине, используя колоночную СУБД ClickHouse. Это позволяет эффективно учесть все взаимосвязи между данными, даже если они находятся в совершенно разных источниках (разные СУБД, файловые источники и т.п.). Также режимом экстракции можно воспользоваться, если ваши источники достаточно медленные, в этом случае кэширование их в колоночных структурах может существенно увеличить скорость обработки аналитических запросов. Пользователю достаточно сформировать модель, перевести ее в режим экстракции, и дальше он может даже выйти из системы и закрыть браузер – извлечение данных и материализация модели будет осуществляться в фоновом режиме. Кроме того, «Модель данных» даёт возможность настраивать фильтрацию данных и создавать вычисляемые показатели, предусмотрено и регламентное обновление данных (перегрузка данных по расписанию). Исторически так сложилось, что для ad hoc анализа (быстро «покрутить» данные) и для создания дашбордов были созданы разные инструменты. Этими инструментами в Платформе изначально были соответственно «Экспрессотчеты» и «Аналитические панели». Думая над созданием инструмента следующего поколения, мы, безусловно, смотрели на решения конкурентов и анализировали обратную связь от наших заказчиков. Часто эти две задачи (ad hoc анализ и построение дашбордов) пересекались, комбинировались, а пользователям было сложно сориентироваться в выборе целевого инструмента. В итоге мы решили совместить функции создания дашбордов и проведения анализа «на лету» в едином инструменте «Информационной панели». По умолчанию дашборд открывается в режиме просмотра. Если пользователю необходимо поменять оформление визуализаторов, либо просто поисследовать данные – он всегда может перейти в режим редактирования слайда, в котором доступны все необходимые опции для манипуляции метриками и срезами, настройки оформления визуализаторов и рабочая область построения дашборда с интерактивной сеткой, позволяющая быстро формировать и модифицировать структуру визуализаций. Обкатав новые подходы к табличному моделированию данных и более гибкому конструированию дашбордов в рамках продукта FlyBI, мы задумались о включении новых инструментов в состав «большой» Платформы. Пользователям оказалось не очень удобно для решений задач визуализации и исследования данных постоянно переключаться между двумя разными продуктами. К тому же, существующие прикладные системы на базе Платформы уже содержали большое число преднастроенных источников данных (многомерных кубов), которые также хотелось задействовать в новом инструменте, не прибегая к тотальному переводу всего и вся в плоский табличный вид. Результатом этой работы стало включение инструментов FlyBI в состав инструментария Платформы, в существенно переработанном виде. В чем же заключались эти доработки? Если в FlyBI пользователь работал с единым проектом, состоявшим из одной модели данных и одной большой области размещения визуализаций (аля Miro), то внутри Платформы «Форсайт» FlyBIпроект разделился на 2 составляющие части: «Модель данных» и «Информационная панель». Эти два компонента стали отдельными объектами репозитория Платформы, с которыми стало возможно работать независимо. Это органичным образом легло на практику работы с Платформой – ведь пользователю для проведения анализа не всегда нужно было создавать источник данных «с нуля». Часто такие источники либо уже созданы и используются в других инструментах отчетности (например, в регламентных отчетах), либо существовала практика, когда готовые преднастроенные источники (кубы и модели данных) специально создаются более опытными пользователями для использования их уже широким кругом пользователей инструмента. «Информационная панель» получила возможность одновременно работать как с табличными источниками (моделями данных), так и с традиционными многомерными кубами, причем в одной панели таких источников теперь может быть несколько, в том числе разных типов. Появились также возможности создания стандартных и пользовательских вычислимых показателей «после агрегации», был расширен набор визуализаторов, расширено API подключения внешних библиотек визуализации и многое другое. Развивая наши прекрасные инструменты отчетности, мы в определенный момент увидели, что пользователь не всегда выбирает наиболее подходящий инструмент для решения своей задачи. Действительно, дашборд можно собрать и в «Аналитической панели», и в «Информационной панели», да в общемто и в «Регламентном отчете» тоже можно. В итоге мы приняли решение унифицировать, «укрупнить» нашу линейку инструментов и сосредоточиться на развитии трех ключевых компонентов отчетности: Регламентный отчет – инструмент создания многостраничных «pixelperfect» отчетов со сложным форматированием и высокой кастомизацией. Функционал надстройки «Интерактивные формы ввода» постепенно интегрируется в ядро «Регламентного отчета», благодаря чему теперь использовать «формы ввода» не нужно (алгоритмы расчета и интеграция модуля BPM теперь доступны в регламентном отчете «из коробки»). Информационная панель комбинированный инструмент создания дашбордов и проведения ad hoc анализа «на лету» в парадигме selfservice, призвана заменить собой инструменты «Экспрессотчет» и «Аналитическую панель» более «тяжелые» инструменты предыдущего поколения, требующие для своей работы преднастроенных кубов, и не умеющие работать с табличными моделями данных. Умные таблицы – абсолютно новое настольное кроссплатформенное (Windows Linux) приложение для работы с табличными формами в режиме ad hoc анализа. Подробнее об этом инструменте вы сможете прочитать в отдельных статьях в нашем блоге. Вот так сейчас выглядит «шортлист», тройка наших ключевых инструментов отчетности, именно их мы и рекомендуем, в зависимости от Ваших потребностей, использовать в новых проектах, реализуемых на Платформе. В сообществе разработчиков нам частенько приходилось слышать мнение, дескать кубы Платформы «Форсайт» начинают работать медленно, если они содержат большое число измерений. Параллельно страдала и «репутация» блока отчетности. Давайте разберемся, почему это давно не так, и что мы сделали за последние 12 года для увеличения производительности наших инструментов для работы с кубами и моделями данных с приставкой «гипер». Действительно, в последние несколько лет, вследствие развития быстрых колоночных СУБД, ориентированных на OLAPзапросы, все чаще возникают кейсы, когда заказчик аккумулирует свои данные в единую плоскую витрину, содержащую крайне разряженный набор данных с числом измерений, исчисляющийся сотнями. При этом заранее неизвестно, какие конкретно разрезы данных понадобятся пользователю в момент анализа. Тут нужно сказать, что в новых инструментах («Информационная панель» в связке с «Моделью данных») такой проблемы не было, поскольку инструмент изначально ориентирован на поддержку большого числа измерений. Это означает, что, если определенный разрез в текущий момент не нужен, то он просто остается одним из атрибутов модели, а вычислительные ресурсы на построение соответствующего измерения при этом не тратятся. А что же с обычными кубами, которые также используются и в регламентных отчетах, и в информационных панелях, и в экспрессотчетах с аналитическими панелями? Очень просто, в линейке версий 10.х Платформы в нашем Pivotдвижке появилась новая опция размещения измерения «Фильтр в источнике» (помимо стандартных «В столбцах», «В строках» и «Фиксированные»). Давайте подробно разберем, как она работает. Измерения, находящиеся в «Фильтре в источнике», если в них не сохранена никакая отметка, по умолчанию не отстраиваются, что экономит ресурсы сервера БД и сервера приложений. Кроме того, когда наш многомерный движок транслирует запрос в БД на извлечение данных (напомню, что измерения и данные в кубах запрашиваются в БД независимо), такие измерения также исключаются из запроса, что позволяет не увеличивать объем данных, протягиваемый на сервер приложений и не обременять сервер БД дополнительным полем группировки «GROUP BY» в запросах к данным. Если же пользователь захочет настроить отметку у измерения в «Фильтр в источнике», измерение будет отстроено в момент первого обращения к списку элементов. При этом запрос на извлечение данных в БД останется оптимизированным, в нем добавится лишь дополнительное условие в секции «WHERE» в соответствии с выставленной отметкой. Таким образом, не только наши новые инструменты «Информационная панель» в связке с «Моделью данных» теперь позволяют работать с источниками данных с сотнями измерений, но и вообще все наши инструменты отчетности обладают такой возможностью, в том числе и при работе с классическими многомерными кубами. Например, в нашей практике есть реальные кейсы, когда в одном кубе содержатся более 600 измерений, при этом инструменты отчетности продолжают работать быстро. Хочется сказать и об оптимизациях в «Модели данных» (это применимо к моделям данных в режиме «прямого» подключения). Потенциально она может содержать десятки и сотни таблиц – таблицфактов и таблицсправочников, образуя большую «звездочку» или «снежинку». При этом при выполнении ad hoc анализа пользователь может использовать в определенный момент времени атрибуты и факты только из однойдвух таблиц. Мы учитываем это, и в случае, если связи между таблицами не такие жесткие и не могут повлиять на консистентность выборки (например, все справочники связаны с главной таблицей фактов по условию LEFT OUTER JOIN), мы отсекаем «лишние» JOINы в SQL запросе данных модели. Таким образом, даже если в модели данных сотня таблиц, а пользователь в данный момент времени анализирует данные в разрезе измерения, которое содержится в только в одной, «центральной» таблице фактов – в БД может уйти запрос вообще без JOINов. Конечно, это оптимизация сказывается на производительности извлечения данных самым кардинальным образом. Здесь нас ждут хорошие новости. Наши ключевые инструменты для легкой бизнесаналитики в парадигме selfservice: «Модель данных» и «Информационная панель» доступны уже для самого базового пользователя Платформы 10.х (бизнеспользователя), дополнительное лицензирование не требуется. Хочется сказать несколько слов о том, над чем команды управления продуктом и разработки блока отчетности работает прямо сейчас. Наши основные усилия направлены на развитие инструмента «Информационная панель» основного «легкого» инструмента ad hoc аналитики и дашбординга. Постепенно переносим в него недостающие функции из «экспрессотчетов» и «аналитических панелей», развиваем возможности кастомизации, в том числе с использованием встроенного языка Fore, работаем над новым «табличным» визуализатором для вывода детальных данных и расширением API внешних визуализаторов. Завершаем интеграцию всех расширенных функций «Интерактивных форм ввода» непосредственно в инструмент регламентного отчета, что позволит отказаться от использования дополнительной «надстройки» при создании отчетов с подключенными алгоритмами и BPM. В части развития инструмента «Модель данных» работаем над представлением модели в многомерном виде, что позволит подключать «плоские» источники в регламентные отчеты и умные таблицы. Продолжаем развивать нашу технологию MOLAP и inmemory кэширования, работаем над технологиями «ассоциативного» анализа и ИИ. Подводя итог нашему повествованию, хочется сказать о том, что мы в «Форсайт» продолжаем развивать функционал подсистемы отчетности, стараясь сохранять разумный баланс между наследием прошлых версий и инновациями. Гибкость, производительность и доступность инструментов – наши приоритеты. Мы стремимся, чтобы Платформа и BIрешения, создаваемые на ее основе, отвечали запросам как опытных аналитиков и разработчиков, так и рядовых бизнеспользователей. Красивых и функциональных Вам отчетов!
19,621
https://habr.com/ru/companies/Linx/articles/975072/
habr.com
Kubernetes — мощный, но сложный инструмент для управления инфраструктурой. Мы подобрали несколько руководств с лучшими практиками для погружения в тему и ряд решений, упрощающих развертку кластеров. В список попали свежие, но не самые хайповые инструменты, которые толькотолько обрастают своей аудиторией. Как эффективно работать с Kubernetes Deployments . Автор материала — Пуру Туладхар, DevOpsинженер и обладатель статуса Kubestronaut, прошедший все пять сертификаций по K8s от Cloud Native Computing Foundation (CNCF). Он представил вводное руководство по работе с компонентами Kubernetes Deployment: какие задачи они решают, какими возможностями обладают и как их корректно применять. Также автор затрагивает подходы к развертыванию: постепенный, повторный, канареечный и синезеленый . Он также делится лучшими практиками по работе с объектами Kubernetes Deployment, которые, по его мнению, обеспечивают безопасный процесс развертки приложений. К примеру, автор рекомендует хранить K8sконфигурации в системах контроля версий и подключать к CICDконвейеру. Еще один совет — использовать мониторинг вроде Prometheus или Grafana, чтобы отслеживать загрузку CPU, памяти и сети и ключевые метрики на уровне контейнеров и приложений. Лучшие практики Kubernetes: вводный курс . Это — подборка рекомендаций в стиле Kubernetes 101, опубликованная под лицензией Apache 2.0. Здесь также собраны примеры конфигураций, которые помогут начинающим. Кстати, данный репозиторий с материалами уже набрал почти полторы тысячи звезд на GitHub. Руководство разбито на четыре части. В первом разделе представлены базовые рекомендации — например, как работать с Dockerfile. Второй блок посвящен инфраструктуре: вопросам безопасности, сетевым настройкам, нагрузкам и прочему. Третья часть описывает ключевые термины и концепции Kubernetes, включая популярные подходы к развертыванию — канареечную и синезеленую. Последний подраздел совсем компактный с завершающими рекомендациям по деплою и ревью. Kubernetes без излишеств — как поднять окружение с нуля . Это — пошаговое руководство по запуску K8sкластера с минимальным набором компонентов на виртуальных машинах с Debian 11. В статье описана предварительная подготовка к развертке, в которую входит отключение swap, инициализация модулей ядра Linux overlay и br_netfilter, а также установка Kubelet и среды выполнения контейнеров crio. Рассмотрены и нюансы работы с кластером: что такое CIDR , как добавить первого воркера и открыть доступ к кластеру с помощью kubectl. В отдельном репозитории можно скачать конфигурации Terraform для развертки виртуальных машин (с лицензией GPL 3.0). Пара рекомендаций от GitLab [документация] . Специалисты из GitLab подготовили компактное руководство, которое поможет запустить контейнеризированные приложения в кластере Kubernetes, используя методы GitLab — все это с примерами конфигураций. Материал знакомит читателя конвейерной интеграцией GitLab, генерацией секретов и процессом сборки K8sманифеста в виде OCIартефакта. Авторы отмечают, что использовать репозиторий OCI как кеширующий слой между Gitрепозиторием и FluxCD — это лучшая практика. FluxCD проверяет наличие новых образов в репозитории OCI, в то время как конвейер GitLab собирает OCIобразы, совместимые с Flux. Финальный подраздел хоть и касается премиумвозможностей GitLab, его можно использовать в качестве референса для работы с данными и ресурсами в рамках конвейера CICD. Помимо практик, связанных с запуском конейнеризированных приложений в Kubernetes, документация содержит и другие рекомендации. Например, один из блоков посвящен GitOps : как использовать Flux, преимущества у контейнеров OCI в качестве источников истины и что учитывать при развертке на основе пайплайнов. Советы от разработчиков Kubernetes . Мало какой материал способен лучше и нагляднее познакомить пользователя с инструментом, чем официальная документация. И в доках K8s также представлены лучшие практики — под них выделили отдельный блок. Здесь имеются как базовые советы по типу «указывайте стабильные версии API при определении конфигурации» или «описывайте объекты в аннотациях», так и более продвинутые — по настройке сервисов, меток и работе с kubectl. В частности, разработчики предлагают (по возможности) избегать подов, не привязанных к ReplicaSet или Deployment. Еще одна рекомендация — не указывать hostPort для подов. Настройки и архитектура KaaS . Компактный материал из нашей базы знаний, посвященный архитектуре нашего сервиса Kubernetes: как он выглядит с аппаратной и программной точек зрения. Мы строим кластеры на основе операционных систем Fedora Atomic и CentOS, а также используем Firecracker и Kata Container для виртуализации с повышенной изоляцией [но работаем и с Docker]. Что касается сетевой инфраструктуры, то изначально облачная SDN была построена на базе OpenStack Neutron, но сейчас мы разрабатываем наше решение — Sprut. Также рассказываем, как организуется доступ к кластеру Kubernetes из публичной сети, как происходит масштабирование и какие нюансы стоит учитывать при работе с разными storageклассами в Kubernetes. Кстати, еще у нас есть верхнеуровневый обзор о том, что собой представляет кластер Kubernetes и как его создать, используя панель управления Linx Cloud. По сути, это пошаговая инструкция с пояснениями, рекомендациями и описанием полей конфигурации: от количества узлов и типов виртуальных машин Master и Node до размера дисков. Еще показываем, как удалить уже сформированный кластер, используя панель управления Linx Cloud или команду terraform destroy. Далее — рассказываем о релевантных open sourceинструментах. Работа с ними может потребовать определенной экспертизы, но если у вас нет времени на глубокое погружение в тему, мы всегда рады поделиться опытом и предложить сервисы для развертывания контейнерных приложений. Glasskube . Это менеджер K8sпакетов, который в 2024м стал частью CNCF Landscape — каталога облачноориентированных технологий. Проект представил одноименный стартап, разработавший платформу распространения программного обеспечения Distr . Glasskube запускали, чтобы упростить управление пакетами и их настройку, вдохновляясь возможностями и подходом Homebrew , npm и apt . Инструмент позволяет и управлять зависимостями. При этом каждое обновление пакета проходит проверку на наборе тестов. Кроме пакетов Kubernetes, решение может работать с IngressNGINX, Kube Prometheus Stack и другими . Документация Glasskube аскетичная, однако в ней можно найти архитектуру инструмента, руководства по установке на разные ОС, а также ссылку на шаблон для настройки работы с ArgoCD. K0rdent . Проект компании Mirantis, специализирующейся на инструментах для автоматизации, который она представила в начале 2025 года. K0rdent предлагает платформенным инженерам инструментарий для проектирования распределенных сред управления контейнерами (DCME) и позволяет развертывать K8sкластеры. По словам разработчиков, инфраструктура не поспевает за ростом рабочих нагрузок — особенно в сфере нейросетей и облачных сервисов; в подобных случаях она должна быть гибкой и контролируемой. Для решения этих задач и был спроектирован k0rdent. Решение получило поддержку от CNCF, а также было включено в программу CNCF Landscape. K0rdent помогает управлять жизненным циклом кластеров (настройка, обновления и CRUDоперации), мониторить сервисы, контролировать события и журналы. Его можно использовать или как универсальный дашборд для нескольких мастерузлов K8s, или как самостоятельное решение для платформенного инжиниринга. Документация компактна, но покрывает многие важные аспекты. Например, там можно найти вводное руководство по быстрому старту, настройке управляющего кластера, ознакомиться с примерами. DeployKF . Инструмент для проектирования MLплатформ на основе Kubernetes. Его разработчиком выступает одноименный стартап, команда которого характеризует deployKF как «решение, вбирающее все лучшее из Kubeflow , Airflow и MLflow ». Его цель — предоставить возможность построить свою платформу машинного обучения любому пользователю K8s, даже если тот не имеет навыков в области MLOps. Авторы проекта называют одной из ключевых особенностей delpoyKF централизованную систему конфигураций , управляющей всеми компонентами платформы. Возможна интеграция с Istio, certmanager, Kyverno, S3 и MySQL — инструкции по настройке и работе размещены в документации (хотя раздел, посвященный Kyverno, еще в разработке). Managed Kubernetes [как сервис от Linx Cloud]. Это — платформа для развертки, масштабирования и мониторинга контейнерных приложений. Основу KaaS составляет контейнерная платформа Deckhouse Kubernetes Platform (DKP). Она предлагает расширенную функциональность по сравнению с «ванильными» конфигурациями: метрики и дашборды для мониторинга, встроенные компоненты для аутентификации и авторизации, преднастроенные Flannel или Cillium для организации сети и так далее. Если вы хотите почитать еще о сервисе, то хорошим местом для старта будет наша статья на Хабре , в которой мы рассказали про возможности и главные элементы интерфейса (разумеется, со скриншотами). Кроме того, сервис можно протестировать и задать нам все интересующие вопросы по его использованию. Кибератаки 2025: кто в зоне риска и чем поможет WAF
9,195
https://habr.com/ru/articles/975188/
habr.com
Каждый день появляются новые LLM, OCR, мультимодальные модели и агенты. В новостях — одни заголовки: «Модель X побила все бенчмарки» . Руководство хочет «самое новое и передовое», команда — «самое лучшее по метрикам». А вот как понять, что конкретно для вашего кейса это действительно лучше — обычно не очень понятно. В этой статье расскажем, как мы пришли к подходу, который внутри называем Benchmark Driven Development (BDD) — разработка, движимая бенчмарками на своих данных. (Да, мы знаем, что BDD — это ещё и Behavior Driven Development, тут у нас своя расшифровка ) У нас есть реальный кейс. В продакшене к нам прилетает один большой PDF , внутри которого подряд лежат: сканы совершенно разных документов (паспорта, договоры, заявления и целая куча других документов), фото документов, «сфотканных на коленках» (буквально, вместе с коленями), Определить тип документа (что это: договор, паспорт, заявление и т.д.). На словах задача простая. На практике же вариантов решения — десяток (и это только первые, что приходят в голову): Через OCR (распознавание текстов) текстовую классификацию или через TFIDF (CatBoost логрег любая другая модель); или вообще отправить всё в LLM (Qwen, DeepSeek, GigaChat и т.д., разных размеров: 1B, 7B, 30B). Через CVклассификацию по картинке — классифицируем документ до распознавания текста. Через мультимодальные LLM — «весь pdf или страница на вход, а на выход сразу тип документа». Через агента — собрать цепочку шагов, дать ему инструменты и пусть структурирует документы. (В комментариях наверняка сможете добавить ещё варианты ) Какой из подходов реально лучше именно для нашего кейса ? У кого лучше метрики? У кого быстрее обработка? Что дешевле масштабируется? Выбираем модель с вершины таблицы (с учётом лицензии и ресурсов). Выбираем модель с лучшими метриками, используем для классификации текста. «У нас лучший OCR лучшая LLM по бенчмаркам — значит, мы получили лучшее решение». Если вы не копались в датасетах бенчмарка, вполне может оказаться, что: А у вас — русский язык, медицинские документы, плохие фото, заломанные страницы и прочие «радости жизни». В итоге модель, которая «рвёт» бенчмарк, на ваших данных может сильно просесть. Даже если вы собрали пайплайн «OCR LLM», остаётся куча вопросов: А если вместо LLM использовать простой классический классификатор — будет ли хуже? А если выкинуть OCR совсем и попробовать CVклассификатор по картинке? Как изменится качество если вместо 30B модели взять 7B? Без единого своего бенчмарка вы сравниваете решения «на ощущениях». Нужен свой бенчмарк на своих данных , максимально похожих на реальные продовые кейсы. Все решения сравнивать в первую очередь на нём . Звучит вроде очевидно. Но на практике этим очень часто пренебрегают. Типичные аргументы против: «Это неприоритетно, давайте сначала MVP, потом разберёмся». «Вот есть же огромный публичный бенчмарк, его делали умные люди на сотнях тысяч кейсов — нам такой не потянуть, давайте ему доверимся». «Руководству нужны не бенчмарки, а готовое решение». Звучит знакомо? Ровно то же самое обычно говорят и про тесты в разработке ПО. Отсюда и аналогия: Benchmark Driven Development по отношению к Test Driven Development . Сначала формируем свой бенчмарк: 1.1. под реальные данные, 1.2. под свои бизнесметрики (качество, скорость, ресурсы). Каждое существенное изменение пропускаем через бенчмарк: 3.1. новую модель, 3.2. новый инструмент, 3.3. новую архитектуру пайплайна. (прошу прощения за такую нумерацию, md Хабра победить иначе не удалось) Решения принимаются не «по ощущениям», а по числам на своём стенде . Всегда держим в уме, что маленький бенчмарк это не про достаточные условия, а про необходимые. Взяли 60 реальных изображений документов из нашего продакшена: документы с перегибами, изгибами, заломами страниц; фото, сделанные в «полевых условиях» (телефон, неидеальный свет и т.п.). Ручная разметка — подготовили корректные эталонные тексты. Определили, какие метрики нам важны (качество распознавания, устойчивость к шуму и т.д.). 60 кейсов кажется очень мало, но на самом деле даже на этом объеме можно сделать очень много полезных наблюдений. А дальше уже каждая команда решает сама нужно ли расширять бенч. На популярных бенчмарках один из OCRинструментов (назовём его условно Dots OCR ) выглядел очень достойно. Для наших кейсов Dots OCR показывает результаты до 100 раз хуже , чем PaddleOCR или Surya OCR. Даже многообещающий DeepSeek OCR со своими инновационными идеями ощутимо уступил тому же PaddleOCR . и прошлись глазами по нескольким конкретным кейсам из бенчмарка. любой новый OCR можно прогнать на наборе своих картинок ; Не нужно спорить «эта модель лучше, потому что статья на неё нашлась на Хабре» — есть свои цифры. Когда выходит «ещё один новый SOTAOCR», мы не спорим, а просто добавляем его в бенчмарк. Дальше стало понятно, что одного OCRбенчмарка мало. Если мы хотим сравнить архитектуры решений , нужно покрывать весь процесс целиком , а не только отдельный шаг. видеть, как одна и та же модель ведёт себя в разных конфигурациях. «Мы решили, что документы можно нормально классифицировать только после OCR давайте сделаем бенчмарк только для OCRподхода». В итоге вы автоматически отсекаете альтернативы, которые могут: В нашем случае такой полезной альтернативой оказалась CVклассификация по изображению . Для части сценариев: и на некоторых типах документов даёт качество, сравнимое или лучше, чем вариация «OCR LLM». Если бенчмарк заточен только под один пайплайн, вы просто не увидите такие варианты. Краткий чеклист, который можно адаптировать под свой проект. Главное — чтобы данные были максимально похожи на ваши реальные. наконец внимательно посмотрите на свои данные (это, вообще говоря, самое важное). Маленький бенчмарк не будет достаточным, но будет необходимым для решения. для дебага полезно видеть не только интегральные метрики по всему бенчмарку, но и "пофайловые" результаты; иметь возможность быстро сравнить «подход A против подхода B» на одном и том же бенчмарке. «Аргумент давайте возьмём X, он модный не работает без цифр на нашем бенче». Реализация одного частного случая ничего не значит. Необходимо проскориться на бенчмарке. Бенчмарк — это не внутренняя игрушка инженеров, а: Сами бенчмарки мы, к сожалению, публиковать не можем — внутри реальные документы с персональными данными. Но если тема окажется интересной, мы можем в отдельной статье: подробнее разобрать процесс построения OCRбенчмарка, включая отбор кейсов, выбор метрик, сложности разметки; показать, как устроен бенчмарк по классификации документов; поделиться структурой датасета и примером метрик (на синтетических или обезличенных данных). Напишите в комментариях, если вам было бы полезно увидеть такую «практическую» часть. Чужие бенчмарки полезны, но они не знают вашу предметную область. Один и тот же «SOTAинструмент» на ваших данных может вести себя на порядки хуже, чем более «скромные» решения. Свой компактный бенчмарк на десятках хорошо подобранных примеров даёт: «Сначала бенчмарк на своих данных, потом всё остальное». Если у вас есть похожий опыт (с OCR, LLM или любой другой задачей) — расскажите в комментариях: Какие сюрпризы вскрылись, когда прогнали «топовые» модели на своих данных? Как вы убеждали руководство вкладываться в бенчмарки? p.s. Когданибудь у нашей компании оживет корп аккаунт и статья будет опубликована на нем со скриншотами из mlflow и подобным.
7,375
https://habr.com/ru/articles/976278/
habr.com
Всё изложенное ниже основано на моём личном опыте, не претендует на абсолютную истину и относится к PowerShell версии 5.1. Описанные трудности могут быть следствием моей собственной некомпетентности в PowerShell. Материал ориентирован на разработчиков, привыкших к более классическим языкам программирования В этой статье я собрал непривычные, нелогичные и местами раздражающие особенности PowerShell, с которыми столкнулся в реальных проектах. Сможете определить, какой результат будет выведен при запуске следующего кода? Мне, как человеку, не особо знакомому с особенностями Powershell, все было предельно очевидно: функция TestFunc в явном виде всегда возвращает false , а значит результат будет Result is False . Представьте мое удивление, когда я, столкнувшись с аналогичным кодом, получил Result is True . А дело вот в чем. Как я уже сказал, Powershell прежде всего шелл, и только потом язык программирования. И в нашем случае работают 2 факора: Если результат вызываемой функции (или метода) не присвоен переменной, то этот результат выводится в конвейер (output stream) Функция возвращает не только то, что указано в return , но и все, что было выведено в output stream во время выполнения этой функции. В нашей функции TestFunc вызывается метод arraylist.Add("New item") , который добавляет в массив новый элемент, а также возвращает индекс этого нового элемента — 0 . Так как возвращаемый результат не присвоен переменной, он попадает в output stream. Таким образом, наша функция TestFunc возвращает массив, состоящий из двух элементов 0 и false , а не ожидаемый нами false . Чтобы исправить нашу функцию, придется подавить вывод результата вызова метода arraylist.Add("New item") , например так (рекомендуемый способ): Угадаете, какие типы переменных many и single выведет данный код? Вроде обе функции GetMany и GetSingle возвращают массивы, и мы можем ожидать, что результат будет одинаковым для обеих переменных: Здорово правда? Не спросив нас PowerShell "упростил" нам жизнь. А ведь мы скорее всего захотим передать массив в цикл и конечно же получим ошибку, если вместо ожидаемого массива получим String . Почему так получилось? Потому что PowerShell — язык, построенный вокруг конвейеров (pipeline) и в него заложена логика удобной работы с конвейерами и выводом данных, чтобы админы могли быстро "набросать" скрипт. Но как же быть нам, людям которые привыкли, что результатом функции должно быть именно то, что она возвращает, без всякой магии? Одно из решений использовать общеизвестный в мире PowerShell костыль в виде запятой , , которая по сути оборачивает любое значение в массив. Если мы перепишем наш код следующим образом, то все будет работать, как мы того и ожидаем. Обратите внимание, на запятую в строке return , array , именно в ней вся магия. Теперь результат будет, как мы и ожидаем: Функция AddItem должна добавить новый элемент в массив, который хранится во внешней переменной, но только если эта переменная существует и не пустая (то есть функция видит эту переменную). На первый взгляд все ОК, но результат будет вот таким: Как мы видим, количество элементов не изменилось, хотя условие проверки видимости переменной array сработало, то есть функция переменную array видит. Почему так получилось? Здесь свою роль играет область видимости переменной array . Как вы, скорее всего знаете, в PowerShell у переменных бывают разные области видимости (Scope): global переменная видна во всей сессии PowerShell Присвоение значения переменной, если такой переменной еще нет, это всегда создание новой переменной. При этом важно — переменная, созданная в корне скрипта (в корневом скриптблоке), всегда имеет область видимости script , даже если этого не указано явно. Это работает даже для параметров корневого скриптблока, созданных через param(myVar) . При обращении к переменной внутри функции сначала PowerShell ищет среди ее локальных переменных. Если локальная переменная не найдена, то поиск ведется среди переменных уровня script , а затем уровня global . В нашем случае инициализация переменной array ("A", "B", "C") происходит в корневом скриптблоке, а значит ее область видимости становится script . Далее, когда в функции AddItem вычисляется условие if (array) ... , то в функции нет локальной переменной array , а значит PowerShell найдет переменную array уровня script , так как у них одинаковые названия. То есть, обращение к переменной по имени array вернет переменную script:array . А вот дальше, пытаясь добавить новый элемент в массив array через мы сталкиваемся со следующим: массивы в PowerShell иммутабельны, поэтому добавление элемента массива через это не что иное, как создание нового массива но уже с новым элементом и присвоение его переменной array . Тем самым мы создаем новую переменную с таким же именем, но локальную для функции AddItem и уже в нее добавляется новый элемент. Значение переменной script:array остается без изменений. И самое неприятное, в данном случае установка строгого режима (через SetStrictMode Version Latest ) нас не обезопасит, так как изначально в функции AddItem обращение идет к уже существующей переменной array уровня script . Для того, чтобы не попадать в подобные ситуации (да и в целом это правило хорошего тона в любом языке), никогда нельзя использовать не инициализированные в явном виде переменные, а при обращении к переменным уровня script или global необходимо указывать явно их scope. Вроде все просто, переменная array ведь не пустая, это заполненный массив, а значит переменная isNull должна быть false ... А вот как бы не так. Переменная isNull будет также массивом (коллекцией) с одним элементом null . И это скорее всего не то, чего мы ожидали. Почему так? Потому, что при сравнении значений PowerShell оценивает первый операнд чтобы определить, является ли он скаляром или коллекцией. Если это скаляр, он сравнивает операнды друг с другом как целые объекты, а если коллекция — то он выполнит итерации по всей коллекции, сравнивая каждый элемент в коллекции. И в результате будет массив с совпадающими значениями. Поэтому в PowerShell при сравнении на равенство null рекомендуется всегда операнд null ставить слева. Мне, как человеку, больше привыкшему к другим ЯП, было очевидно, что: WriteHost это функция, которая должна вывести конкатенацию двух строк "A" и "B" . То есть результат я ожидал "AB" . Дело в том, что PowerShell имеет 2 режима парсинга: Command Mode — режим команд, где всё разбирается как аргументы команды. Expression Mode — режим выражений, обычный режим языка (операторы, выражения, , , , скобки, строки) И WriteHost это не просто функция, это команда. Если строка начинается с команды — строка парсится как команда, а не как выражение. И тогда "A" "B" рассматривается парсером не как выражение, а как параметры команды, разделенные пробелом. Более наглядным будет отображение Abstract Syntax Tree (AST), которое формируется парсером из нашего кода. Здесь мы видим, что создается нода CommandAst , имеющая 4 строковые константы StringConstantExpressionAst . Первая это название самой функции WriteHost , а вот остальные это как раз и есть то, что парсер принял за параметры команды: A , и B . И хотя указан без кавычек, парсер все равно посчитал его строкой (типа BareWord ), а не оператором. Чтобы парсер посчитал "A" "B" выражением, необходимо использовать скобки. Согласно мануалу от Microsoft, начиная с PowerShell 3.0, можно использовать ускоритель типов [ordered] для создания объектов типа [OrderedDictionary] . Попробуем создать 2 объекта этого типа, только первый через ускоритель типа [ordered] , второй через создание экземпляра [OrderedDictionary] напрямую. В коде мы проверяем, что типы объектов идентичны. Убедимся в этом: Зная, что все объекты в PowerShell оборачиваются в объект типа [PsObject] , можно проверить свойства dict1.PsObject и dict2.PsObject . Но и они будут идентичны. Но если мы выведем список элементов полученных словарей, то обнаружим, что в словаре dict1 только 1 элемент One , а в словаре dict2 два элемента — one и One . То есть наглядно видно, что имея одинаковый тип у них разное поведение: dict1 регистронезависим, а dict2 регистрозависим. Да и по оформлению вывода содержимого объектов в консоль видно, что они разные. И почему же так происходит? Потому,что в PowerShell слишком много "магии". На самом деле [ordered] это [OrderedHashtable] , который только маскируется под [OrderedDictionary] , но ведёт себя иначе. А вот объект, созданный напрямую через [OrderedDictionary]::new() является почти чистым .Net объектом, обернутым в PsObject . И в нем нет регистронезависимости, принятой во всем PowerShell. Замыкания это важнейший механизм во многих современных языках программирования. Например JavaScript без замыканий и представить нельзя. В PowerShell также есть замыкания, но есть нюансы... Например, рассмотрим следующий код: Как видим, в функции GetForm мы создаем форму, подписываемся на событие отображения формы Add_Shown и показываем эту форму. В скриптблоке обработчика события Add_Shown мы меняем текст заголовка формы на значение из внешней (по отношению к обработчику) переменной extVal . Данный код выполнится корректно, замыкание на переменную extVal работает, ура! Теперь мы немного хотим изменить логику функции: не открывать форму сразу в функции GetForm , а сначала просто возвращаем экземпляр формы (переменную form ). И вот теперь мы получим ошибку, что в хэндлере события Add_Shown переменные form и extVal не существуют. Почему так, ведь в первом случае все работало? Многие, конечно, догадаются, что на самом деле никаких полноценных замыканий не было ни в первом ни во втором случае. В первом случае все работало потому, что вызов form.ShowDialog() внутри функции GetForm синхронный и блокирует дальнейшее выполнение кода и выхода из функции не было. Таким образом на момент сработки события Add_Shown контекст функции GetForm еще существовал и обработчик события видел переменные из контекста функции. А вот во втором случае функция GetForm к моменту сработки события уже отработала и ее контекст очищен. PowerShell по умолчанию не захватывает лексическое окружение, как привычные замыкания в других языках. Для того, чтобы замыкания в PowerShell реально работали, необходимо использовать метод GetNewClosure() . Исправим наш код: Все строки в PowerShell (как и во многих других языках) являются иммутабельными. То есть при простой конкатенации "A" "B" PowerShell на самом деле создает новую строку достаточно большой для хранения содержимого левых и правых операндов, а затем копирует элементы обоих операндов в новую строку. На простых операциях это не заметно, но вот при больших итерациях или при работе с длинными строками это существенно влияет на производительность. Microsoft в своей документации для повышения производительности скриптов PowerShell при работе со строками рекомендует использовать 2 подхода: Хранить строки в массиве и объединять их оператором join Microsoft также приводит результаты замера производительности всех трех рассматриваемых подходов по объединению строк. класс [StringBuilder] — 62.44 мс (в 4.23 раза медленнее) обычная конкатенация через оператор — 619.64 мс ( в 42 раза медленнее ) Причем падение производительности экспоненциальное. При 50 тыс. итераций производительность для обычной конкатенации существенно хуже: класс [StringBuilder] — 304.32 мс (в 7 раз медленнее) обычная конкатенация через оператор — 14 225.13 мс ( в 330 раз медленнее ) Несмотря на то, что почти во всех обучающих мануалах предлагается использовать для добавления элемента в массив оператор , это подходит только для простых случаев, а при больших массивах приведет к существенному падению производительности. Причина та же что и со строками — пересоздание нового массива каждый раз. использовать явное присваивание итоговой коллекции (Explicit Assignment) — то есть сразу создавать массив заполненный нужными значениями в выражении или в цикле. вместо массива использовать .Net типизированный универсальный список [System.Collections.Generic.List[T]] Также как и в случае со строками, падение производительности экспоненциальное. При 100 тыс. итераций при использовании оператора результат существенно хуже: оператор — 201 991.06 мс ( в 18 067 раз медленнее ) Как видим, при добавлении 100 000 элементов в массив с помощью оператора производительность катастрофически падает до неприемлемого уровня. Все это актуально для всех версий PowerShell до версии 7.5. С версии 5.0 в PowerShell появились классы и они существенно облегчили написание чистого кода и управление областями видимости. Однако и при работе с классами есть подводные камни, которые могут усложнить реализацию проекта, если о них не знать. В отличие от функций (команд), которые могут быть перезаписаны одна другой, если их названия совпадают, классы перезаписаны быть не могут. Если скрипт импортирует разные модули, в которых есть классы с одинаковыми названиями, то возникнет ошибка. Но самое неприятное во время разработки заключается в том, что после того, как вы измените код класса и перезапустите скрипт в той же сессии (как, например, делает VSCode), то с большой долей вероятности PowerShell не обновит класс и будет выполнена его старая версия. Особенно, если используются вложенные импорты, что нормально при разработке модулей с классами. То есть в IDE вы будете видеть новую версию класса, а отладка кода будет осуществляться по старой версии, что очень сбивает с толку. Поэтому каждый запуск скрипта после изменения кода классов должен осуществляться в новой сессии PowerShell (с перезапуском сессии). Без этого вы будете сталкиваться с необъяснимыми багами во время разработки. Вроде бы по синтаксису все правильно, но PowerShell выдаст ошибку и потребует использовать this для переменной var1 . В отличие от других привычных языков, PowerShell не даст создать локальную переменную var1 , если в классе уже есть свойство с таким же именем. Но спокойно создаст локальную переменную var2 , так как она не совпадает с названиями свойств класса. С чем связано такое поведение, я не знаю. Может кто подскажет в комментариях. Скорее всего проблема в том, как устроен механизм работы пространства имен в PowerShell и то, что это всетаки скриптовый язык, а классы это уже надстройка со своими ограничениями. Обойти это ограничение можно указав квалифицированное имя переменной local:var1 . Например, если мы захотим в классе создать метод с опциональным параметром (со значением "по умолчанию"), то PowerShell позволит нам это сделать, не сообщая об ошибке. Но если мы попытаемся вызвать этот метод без параметра:, PowerShell выдаст ошибку. И даже если мы всетаки укажем в качестве параметра null , значение "поумолчанию" всеравно будет проигнорировано, хотя ошибки и не будет. Несмотря на вс странности и ограничения, PowerShell остается мощным инструментом, который дает богатый функционал и отлично справляется с автоматизацией. Надеюсь,что данный материал поможет комуто сэкономить время и избежать ошибок в коде.
14,921
https://habr.com/ru/companies/gnivc/articles/972012/
habr.com
Всем, привет! Снова на связи я – Дмитрий, Reactразработчик, и в этот раз мы поговорим о создании фундамента для дальнейшей разработки. Идея — сделать компонент в реакте, который сможет отобразить файл Excel в обычной HTMLтаблице со всеми его слияниями ячеек, форматированием, несколькими строками заголовка и полностью сохранённой структурой. Казалось бы, задача простая: берёшь любую библиотеку, читаешь файл и показываешь. На практике всё оказалось гораздо интереснее. Сделать Reactкомпонент без обращения к сторонним сервисам и без промежуточной конвертации на бэкенде. Забегу вперёд, что всётаки XLSX библиотеку использовать будем. Перебрал несколько вариантов из npm: таблицы, которые «парсят Excel», «выводят Excel в браузере» и т.п. Проблемы следующие: большинство показывают только данные, полностью игнорируя стили, merge поддерживают либо некорректно, либо вообще не поддерживают, некоторые библиотеки грузят Excel через backendпарсинг, что или не подходит, или представляет собой какойто коммерческий вариант, а нужна основа для своего решения. Бывают сервисы, которые превращают Excel в HTMLтаблицу, но ни один не подходит для приватных данных, т.к. в них не контролируешь процесс, нет нормальной интеграции в React, merge или стили по дороге теряются. Рендер через canvas или SVG? Да, такие подходы существуют, но сложность разработки возрастает в 10, возникают проблемы с копированием текста, невозможно нормально выделять ячейки, а также нет нативного HTMLповедения. В общем, использовать библиотеку xlsx мы все же будем, но придётся попотеть. Кстати, если чтото уже есть и я изобретаю велосипед, то напишите в комментариях. В этой статье я покажу не готовую библиотеку и не промышленный компонент, а прототип, который я собирал на чистом энтузиазме — поздней ночью под луной, в свободное от работы время, гдето на югах России. Это не финальная версия, не продукт уровня productionready — это исследование, база, фундамент, на который позже можно будет надстроить всё, что нужно. Полный код я приложил в конец статьи, но чтобы не прыгать с места в карьер, пойдем последовательно и будем хранить интригу. Я инициализировал чистый проект React TypeScript с помощью Vite. Чтобы не нажимать каждый раз на input type"file" , я решил для удобства автоматически подгружать Excel из publictest.xlsx сразу при запуске приложения. Но при этом оставил заготовку для функционала подгрузки через интуп. Это ускоряет отладку и позволяет сосредоточиться на логике таблицы, а не на повторении однообразных действий. В моём случае Excelфайл лежит в public , поэтому я просто грузил его через fetch : Почему arrayBuffer()? Библиотека xlsx не умеет читать Blob напрямую, ей нужен массив байтов. Поэтому преобразуем ответ ArrayBuffer в Uint8Array и далее в File. Зачем снова создаю File? Потому что компонент ExcelTable ожидает именно File , как будто его загрузили через input type"file" . Это делает компонент универсальным именно на данный момент времени. Задел на будущее – можно подгружать с бекенда, а можно с кнопки. Когда файл готов, он передаётся в компонент ExcelTable, который занимается всей логикой. Переходим к компоненту, который делает всю работу. Вот ключевой useEffect , который читает файл и превращает его в данные необходимого формата. Давайте разбираться: FileReader — браузерный API для чтения локальных FileBlob. Мы используем readAsArrayBuffer , чтобы получить бинарный ArrayBuffer. Как я уже писал выше, библиотека xlsx принимает бинарные данные в виде массива байтов. Получается, следующая манипуляция — ArrayBuffer преобразовывается в Uint8Array, а это уже удобный формат для XLSX.read. reader.onload — колбек, который выполняется, когда чтение файла завершено. В e.target.result лежит ArrayBuffer. Мы приводим его к Uint8Array для дальнейшей передачи в xlsx. пользуемся функцией библиотеки XLSX.read, которая превращает байты в объект workbook. У нее есть опции: type: "array" — говорим библиотеке, что мы передаём Uint8ArrayArrayBuffer. cellStyles: true — ключевой параметр, без него xlsx не будет читать стили (fill, font и т.д.). Нам важны фоновые цвета и прочие оформления. Тут есть нюанс: для получения стилей часто нужно использовать fullсборку xlsx (xlsx.full.min), иначе некоторые поля стилей могут быть недоступны. XLSX поддерживает стили только для чтения, но не все типы стилей доступны. Границы, жирность, выравнивание частично или полностью могут отсутствовать. Особенно границы (border) и цвет текста (font.color) библиотека часто не возвращает. workbook.SheetNames — массив названий листов в книге. По умолчанию берём первый ([0]) . workbook.Sheets[name] — объект листа, в терминах xlsx — это набор ячеек и служебных полей. Если нужно поддерживать несколько листов, здесь можно показать выбор пользователю или рендерить вкладки, но нам это пока не интересно. Снова пользуемся функцией из xlsx и конвертируем лист в двумерный массив: sheet_to_json с опцией header: 1 возвращает матрицу, где каждая строка — массив значений. Например, [[A1,B1], [A2, B2]] . Это удобно для рендера table , т.к. мы работаем с индексами строк и столбцов. raw: true означает: вернуть сырые значения ячеек (числа, даты в их исходном виде), без попыток преобразовать формат, например: не конвертировать даты в строки. Если использовать header: A или другие режимы, формат результата будет другим — для нашей задачи двумерная матрица оптимальна. Далее в этих строчках мы условно разделяем данные на заголовок и тело таблицы. startRow — переменная, которая даёт возможность пропустить верхние строки заголовка таблицы в файле. startRow 1 гарантирует корректный индекс. headerRows — число строк заголовка. Мы делим видимые строки на часть, в котором отрисовывается заголовок и часть на всё остальное тело таблицы. Это нужно, чтобы рендерить thead и tbody отдельно и корректно рассчитывать mergeофсеты для тела. header и body — двумерные массивы значений, готовые к дальнейшему превращению в матрицу с colSpanrowSpan. newSheet["!merges"] — служебное поле листа, массив диапазонов объединённых ячеек. Формат каждого элемента: где индексы r и c 0based . Если !merges нет, используем пустой массив. setSheet(newSheet) — сохраняем сам объект листа. Он нужен, чтобы извлекать стили конкретных ячеек (например, cell.s.fill) при построении окончательной матрицы. file, startRow, headerRows — логично, при смене любого из них нужно пересчитать матрицы. Но при больших файлах это может быть «дорого» — тут можно подумать о memo, о дебаунсе или буферизации. "Где обработка ошибок чтения или загрузки самой эксельки, ее обработки и т.п?" – Спросите вы. «Прототип, который призван понять, как оно работает,» — отвечу я Для гигантских Excelфайлов парсинг в основном потоке может тормозить UI. Возможные решения: Web Worker для парсинга, виртуализация при рендере (reactwindow) или ленивое чтение по диапазонам. Для корректного считывания стилей нужен xlsx.full.min и опция cellStyles: true. Но даже это не гарантирует 100% идентичность с Excel — некоторые сложные стилиграницыусловное форматирование библиотека не отражает. Некоторые сборки fullверсии тоже не содержат полной поддержки стилей, зависит от конкретного билда. Сейчас всегда берём первый лист. Если файл многостраничный — лучше сделать UI для выбора листа. Иногда sheet_to_json возвращает строки разной длины с пропущенными trailingячейками. При построении матрицы стоит нормализовать длины строк (заполнить undefined), чтобы избежать смещений при рендере. raw: true возвращает внутренние значения. Если нужно форматирование, например, отображать даты в локальном формате. То нужно добавить постобработку по cell.z – это форматная маска или использовать XLSX.SSF.format. Уточню, что Excel хранит дату как число (days since 1900 или 1904), raw: true оставляет это число как есть. Чтобы получить строковое значение даты, нужно либо вручную форматировать через XLSX.SSF.format(cell.z, cell.v), либо включить raw: false Эта функция — центральная часть рендера Excel в виде Reactтаблицы. Её задача — превратить двумерный массив значений (rows) в такую структуру, где каждая ячейка имеет полную информацию для рендера. Добавить в каждую ячейку value, bgColor, при необходимости — colSpan и rowSpan, правильно обработать mergeячейки из Excel (sheet[!merges]) и пометить все ячейки внутри mergeобласти значением null, чтобы они не рендерились. Без этого Reactтаблица будет ломаться, и mergedячейки будут дублироваться. Excelфайл может начинаться не с первой строки (startRow). Таблица разделена на header и body, и body должен начинаться после headerRows строк заголовка, поэтому каждая строка из rows соответствует строке в Excel по формуле: Зачем это нужно? Mergeячейки в Excel используют глобальные координаты (s.r e.r). Но мы работаем с частью таблицы — заголовком или телом. Смещение позволяет правильно сопоставить mergeобласть с нужными строками. Здесь мы проходим по всем ячейкам. Для каждой ячейки читаем value и bgColor через функцию getCellBgColor, о которой расскажу ниже и создаём структуру: value: any, bgColor?: string . На этом шаге merge еще не применяется — мы просто создаём «чистую» таблицу. Берём каждое mergeправило из Excel. Оно выглядит так: s: r: 5, c: 2 , e: r: 7, c: 4 , где: и вычисляем rowIndex в виртуальной таблице. Если это body — вычитаем количество заголовков. Если header — просто корректируем смещение. Mergeячейки Excel имеют абсолютные координаты. Мы же работаем с локальными строками.Без этого merge попадёт не в те строки. Если Excel говорит, что merge идет, например, с (2, 3) по (2, 5), то от 3 до 5 включительно 5 — 3 1 3, значит colSpan 3. Зачем это нужно? Потому что про colSpan td знает только браузер, а Excel не знает о существовании colSpanrowSpan — он работает координатами. Логика такая. В HTML только самая первая ячейка (s.r, s.c) должна получить colSpanrowSpan, а все остальные ячейки внутри mergeобласти должны быть скрыты.Потому что если ты отрендеришь остальные ячейки, таблица станет кривой, merge съедет, браузер наложит td друг на друга. Здесь мы проходим по каждой координате внутри mergeпрямоугольника. Пропускаем стартовую ячейку, а всем остальным присваиваем value null. А не удаляем мы, потому что нам нужно сохранить структуру матрицы, React должен рендерить td только для ячеек со значением. А null мы ставим, потому что наш рендер будет проверять на value ! null. Я упоминал эту функцию выше, давайте рассмотрим её. Эта функция отвечает за извлечение фонового цвета ячейки из объекта листа Excel (sheet) и преобразование его в HEX для CSS. Excel хранит стили ячеек в виде сложной структуры, поэтому простого свойства cell.bgColor нет. Нужен специальный разбор. Excel хранит ячейки не в виде [row][col], а как объект с ключами типа "A1", "B2" и т.д. XLSX.utils.encode_cell(r, c) конвертирует индексы строки и колонки (0based) в строковый адрес ячейки. cell.s — стиль ячейки (style), содержит информацию о шрифтах, границах, заливке и т.д. Если ячейки нет или она без заливки, возвращаем undefined (чтобы таблица рендерила стандартный фон). Теперь нам остаётся получить цвет заливки и преобразовать ARGBRGB в HEX После того как мы разобрали, как Excelфайл превращается в матрицу данных с учётом merge и стилей, следующий шаг — отрисовать таблицу. Помним, что мы хотим, чтобы таблица выглядела максимально похоже на исходный Excel и имела в себе merged cells (colSpan, rowSpan), фоновые цвета ячеек, отдельные строки заголовка (thead) и тело (tbody), плюс нативное поведение таблиц (горизонтальный скролл, ширина колонок и т.д.). Прежде чем рендерить, мы создаём окончательные матрицы для заголовка и тела: getMergedMatrix — функция, которая объединяет данные ячеек с их стилями и mergeинформацией (colSpan, rowSpan). Ячейки, которые входят в merge, кроме первой, имеют value: null — чтобы не рендерить их повторно. Можно уже чтонибудь и отрендерить. Давайте начнём с заголовка. cell.value ! null пропускает ячейки, которые находятся внутри merge, чтобы не рендерить дубли. colSpan и rowSpan берёт значения из объекта CellData, а HTML автоматически объединяет ячейки, как Excel. С помощью backgroundColor мы извлекли цвет ячейки из sheet[cellAddress].s.fill. CSS backgroundColor позволяет точно воспроизвести заливку. Уникальные ключи React. Об этом забывать нельзя никак. Используем индексы строки и колонки, чтобы React корректно рендерил tr и th. bodyMatrix учитывает смещение startRow и headerRows, поэтому merge и цвета применяются корректно даже в теле. Стоит обратить внимание на пустые ячейки внутри merge. Обязательно нужно проверить cell.value ! null , иначе merge ломается и появляются лишние td. Также я наткнулся на то, что иногда Excel возвращает цвет в формате ARGB (FF00FF00). Нужно преобразовывать в HEX, обрезая первые два символа: 00FF00. Конечно же, ключи итерируемых элементов. Для больших таблиц подойдет генерация ключей в виде rowIndex colIndex, но только если таблица статична. Если будет сортировка, фильтрация, добавление строк — нужно использовать другие ключи. И, конечно же, нужно будет в дальнейшем уделить внимание производительности. Для большого количества ячеек стоит использовать виртуализацию (reactwindow) или lazyрендеринг, иначе страница будет лагать. Как итог, вот полный код компонента: table отображает Excel почти на 100% идентично: merge, шапка, тело, текст копируется, работает скролл, HTMLтаблица остаётся стандартной и совместимой с любым CSS. На этом фундаменте можно строить необходимый функционал. Да, я здесь не заморачивался с типами данных с форматированием, но основа работает, и я доволен. Готов услышать ваши идеи, мнения, варианты. Пишите!
13,536
https://habr.com/ru/articles/976390/
habr.com
Всем привет. Я уже примерно 3 года занимаюсь ведением рекламы на маркетплейсах, в частности ВБ, и поскольку люблю все автоматизировать разработкой и поддержкой инструмента для управления рекламными кампаниями и аналитикой через публичный API Wildberries. И в целом я уже привык к тому, что иногда новые версии методов абсолютно не соответствуют старым, даже там, где можно было сделать обновленную версию с минимальными изменениями, чтобы разработчик просто поменял URL ендпоинта. Привык что приходится иногда делать работу ради работы по сути, потому что ктото не продумал заранее проблемные нюансы. Но в последнее время в АПИ произошло такое количество изменений, и они настолько напрягают своими неочевидными ошибками, что уже "накипело", и хочется это сформулировать в виде какогото структурированного текста с примерами, вдруг ктото из команды обратит на это внимание. Постараюсь описывать проблемы WB API не с позиции «пользователя, которому не понравилось», а с точки зрения интегратора, который отвечает за стабильную работу рекламы для нескольких клиентов с миллионными оборотами. Я сознательно опускаю детали реализации и не привожу конкретные ID кампаний и запросы, но описываю поведение, воспроизводимое на сотнях кампаний нескольких клиентов. Я понимаю что некоторые методы действительно сложно написать, не меняя структуру вопросаответа. Но в некоторых моментах складывается ощущение, что разработчики АПИ не просто не думали об удобстве использования для интеграторов, а специально накинули им работы. Чтобы не быть голословным, давайте свежий пример. Были у нас поисковые кампании (они же Аукцион) типа 9, и автоматические кампании (сокращаю до АРК) типа 8. Если очень упростить, то Аукцион показывается в поиске по запросам и стоит дороже, АРК показывается везде где только можно, но стоит дешевле. Все что не Поиск называется Рекомендательные полки: в карточках товара, может кинуть на главную страницу, в корзине и тд, ВБ тестирует новые места показов иногда. В обоих типах кампаний можно минусовать (исключать, останавливать показы) по поисковым запросам, которые вас не устраивают. Есть методы получения списков активных и исключенных запросов кампаний, есть методы исключения. Конечно были свои нюансы, например отдельно показами в рекомендательных полках мы не могли управлять. Но, как это бывает в жизни, спустя время мы понимаем, что было все не так уж плохо. Что есть сейчас (вам не обязательно запоминать все). Появился еще тип ставки единая или ручная. АРК представлены и в типе 8 и типе 9. Называется Единая ставка. В типе 8 у старых кампаний некоторых почему то технически тип ставки не проставился (будет важно потом). В типе 9 теперь может быть или Единая или Ручная ставка. В Ручной ставке могут быть показы или в поиске, или в рекполках, или комбинированные. Методы статистики и управления разбили на методы для ручной ставки и для единой ставки. И чё спросите вы. А например то, что для типа 8 у которых тип ставки не проставился почему то у них в системе методы для единой ставки не работают. Никакой внятной ошибки об этом не выдается. Если вы отправили в запросе 100 кампаний ляжет весь запрос без указания ошибочных кампаний. Велком ту ручная отправка 3040 запросов по одной кампании, чтобы найти в какой ошибка, и сломать голову, в чем проблема. То, что теперь мне нужно все места в системе, где раньше я делал выборки по типу 8 или 9 (у них тоже были разные методы для некоторых действий) переписывать на "все типа 8 без ошибок типа ставки ИЛИ тип 9 с единой ставкой" и "тип 9 только с ручной ставкой". Ах кстати, в типе 9 же еще может быть оплата за показы и за клики, и некоторые методы статистики будут тоже падать с ошибкой изза того что в 100 кампаниях встретится одна с оплатой за клики. В итоге куча времени уходит на то, чтобы разобраться во всех этих нюансах, потому что не все они указаны в документации. А давайте представим, как был бы прекрасен мир, если бы тип 8 не стали запихивать в тип 9, а оставили как он и был. Допустим в типе 9 сделали возможность управления местами показа, окей. Ну и кликовые кампании вынесли в отдельный тип, условно 10. Для внешних интеграторов это означало бы минимальное количество изменений в своих системах. А давайте еще один пример. Помните запросы можно было минусовать в авто и поисковых кампаниях? Вот сейчас в авто кампании все работает как работало, а в поисковых кампаниях ввели новое (старое) понятие нормализованные запросы, они же кластеры запросов, они же пресеты. Если кратко, то поиск у вб строится не отдельно по поисковым запросам, а по группам запросов пресетам или кластерам. Например "одежда женская" и "одежда для женщин" будут в одном кластере. А нормализованный запрос это как бы главный запрос кластера. Так работало всегда на моей памяти, но минусовать мы могли хоть все запросы из одного кластера. А теперь ВБ сказали минусовать можно только нормализованные запросы, у которых было более 100 показов. Оставим в стороне вопрос эффективности рекламы, рассмотрим как они это технически реализовали. Раньше мы просто отправляли массив минусфраз кампании размером не более 1000 фраз. В моменте этот метод продолжил работать корректно, и другой метод, возвращающий минусфразы, их корректно возвращал. НО ввели новые методы, при этом старые продолжали работать и были активны в документации, нигде не было написано что они не работают. А вот показы по отминусованным старыми методами с какого то момента запросам продолжались, потому что они были не отминусованы новым методом. Само собой после снижения эффективности рекламы и дебага это выяснилось, но разве так это должно быть организовано? Ок, думаю, значит надо быстренько все переводить на новые методы минусации. Тут тоже свои приколы. Помните, что новый метод дает отминусовать запросы у которых было более 100 показов? Так то оно так, но только 100 показов это очень эфемерное определение, как выяснилось. У меня вся стата по всем запросам хранится в базе данных. Думаю, ну все же просто было по запросу более 100 показов суммарно, значит можем минусовать. Нет. ВБ решили считать это както под капотом по новому. В итоге запросы которые по статистике из их же официальной документации ранее имели несколько ТЫСЯЧ показов отминусовать нельзя. Ответ берите запросы из нового метода статистики по запросам, который показывает запросы у которых по какимто новым расчетам ВБ было более 100 показов, и минусуйте по ним. Старый метод мол чето другое вам показывает. Да нет проблем, только эти методы на несколько дней начали показывать все запросы, даже которые нельзя минусовать и соответственно у меня в системе данные что запрос можно минусовать, а он не минусуется... И знаете в чем еще прикол? Из отправленной условно 1000 минусфраз в ошибке АПИ вернет вам только ОДНУ ошибочную. То есть не "вот у тебя 300 запросов не минусуются, убери и пришли остальные 700 нормальных", а "вот у тебя из 1000 один не минусуется ты его убери и еще раз попробуй, не знаю сколько у тебя там еще не минусуется, да ты и сам не знаешь, дерзай". И в итоге стабильно рабочего метода обнаружения и минусации всех запросов, которые можно минусовать просто нет. И чуете чем пахнет? Методы получения минус фраз кампании новые с новой структурой. Методы минусации новые с новой структурой и непонятным алгоритмом работы с ними. Методы статистики новые. Поменялось буквально все в коде, с одним единственным изменением по сути нельзя отминусовать запрос, если по нему было менее 100 показов. А как был бы прекрасен мир (если бы вообще не вводили это ущербное правило) если бы оставили все те же самые методы с новой версией в URL, но например в метод минусации добавили возврат запросов, которые не может отминусовать ВБ по новому правилу. Отправил 1000 700 отминусовали, 300 нет, будь в курсе. И ВСЁ, это потребовало бы от интеграторов не несколько дней танцев с бубном, а 15 минут, из которых 10 ушло бы на кофе. В принципе я описал это выше, но это отдельная боль, которую очень хотелось бы перестать ощущать. Какие то неверные данные в кампаниях мешают корректной работе метода, но ты вместо "кампании 123, 456, 789 у тебя cpc, а должны быть cpm, не тупи", ты получаешь "что то не так с кампаниями" и методом научного тыка находишь проблемные кампании, а потом пробуешь понять, какие поля в них отличаются от кампаний, где все работает. Очень блин информативно, спасибо. Такая проблема есть в любом апи наверное, и к ней бы было сильно меньше вопросов, если бы апи просто не развивался. Но почему то у команды разрабов есть время на введение кучи изменений, часть из которых, как описано выше, можно было вообще не делать, и все бы выиграли от этого, а вот на то чтобы добавить пару методов или вообще полей в существующие методы у них почемуто времени (желания) не хватило. Из базовых примеров уже несколько месяцев назад ввели показатель Показы в воронку продаж в личном кабинете. То есть вы можете увидеть сколько посетителей видело ваш товар в поиске, сколько перешло, сколько добавило в корзину и тд. Конкретно показатель Показы очень важен тем, что с ним можно будет болееменее понимать CTR карточки товара, и быстрее прорабатывать товары, на которые кликают хуже. При чем уже после его ввода выкатили новую версию АПИ воронки продаж, но показателя показы там нет )) Есть на ВБ такая штука, как аналитика внешнего трафика возможность ставить внешние ссылки на свои товары и отслеживать статистику по ним по UTM меткам. Существует она в личном кабинете несколько лет. Согласитесь, для автоматизации отчетности и оптимизации рекламы было бы логично иметь апи ендпоинт для получения этой статистики. Но его нет. Точка. Еще пару лет просим добавить разделение статистики кампаний по местам показа. Новые методы статистики появляются, данные нет. Ну это база, беспокоит не так сильно потому что отчасти решается разделением кампаний по типу. Но опять же, в единой кампании так сделать уже не получится. Это конечно не совсем про АПИ, но проблема крайне важна, поэтому оставлю ее здесь. Как писал выше, запретили минусацию кластеров, где было менее 100 показов. И ладно бы сказали "нам дорого обслуживать такой объем данных" или "у нас план на 10% увеличить выручку с рекламы, идей больше нет", ну или какуюто другую более уверенно звучащую причину. НО они говорят "ну по таким запросам могут быть заказы тоже", "чем больше трафика тем лучше", "100 показов мало для принятия решения". А если у меня товар условно акриловые краски показывается по запросам типа баночки для краски, ткани для росписи и так далее? То есть откровенно нецелевые запросы за которые я не готов платить например 30 копеек за каждый показ, а минимальные ставки сейчас примерно такие в поиске, 300 рублей за 1000 показов. А если у меня однотипные товары добавляются в продвижение, я уже с ними 2 года работаю, и знаю заранее, какие запросы для товара точно не будут работать? Есть товары у которых в кампанию накидывает по 23 тысячи запросов. Из них может быть 7080% нерелевантных, а иногда и больше. И если раньше их можно было исключать заранее, или по крайней мере на этапе когда они еще не успели скрутить много показов, то теперь за них придется платить пока они не наберут эти пресловутые 100 показов. Каким бы ни был неподходящим к товару запрос плати. Я понимаю что налоги растут, но это уже как налог на воздух. А приводит это только к тому, что сейчас приходится снижать ставки в кампаниях (или значительно медленнее их повышать), потому что эффективность расходов на рекламу значительно снизилась. В итоге сам ВБ зарабатывает меньше, и скорее всего решать это будет повышением минимальных ставок. Ну а селлерам останется только убирать из продвижения товары по мере того, как продвигать их становится экономически нецелесообразно. На мой взгляд было бы значительно эффективнее давать селлерам гибкие инструменты точечного управления рекламой, чтобы все были в выигрыше. Насильно впихивать показы по запросам "мыть", "средство от", "для чистки", "подтеки" и так далее это все равно что на рынке в ящик клубники подсыпать вниз гнилые ягоды. Продатьто может и продадите, но осадочек как миниум у покупателя останется. Конечно селлер привязан к ВБ сильнее, чем покупатель к рыночному торговцу, но все равно последнее время лояльность селлеров к этому маркетплейсу сильно снижается. Я если 2 года назад отдавал полностью предпочтение ВБ в битве за удобство и эффективность настройки рекламы по сравнению с другими маркетплейсами (конечно при наличии софта и интеграций, но тем не менее), то после всех этих изменений уже так сложно сказать. Проблема не в сложности рекламной системы. С ней нет проблем разобраться и обычному селлеру, и тем более интегратору или разработчику. Проблема в том, что ошибки становятся неуловимыми, старая логика работы рушится без обратной совместимости там, где этого можно было легко избежать. И решение этих проблем перекладывается по сути на селлеров и интеграторов. Если добавить ложку меда конечно добавили управление ставкой по кластерам и это очень круто. И управление ставками по местам показа. Но стоит ли овчинка выделки вопрос. Я надеюсь что рано или поздно ВБ эти проблемы решит с учетом интересов селлеров, потому что все участники рынка в этом заинтересованы.
13,151
https://habr.com/ru/companies/plati/articles/974174/
habr.com
Время самых важных игровых событий за последнюю неделю. От рекордного сжатия игрового веса до сюрпризов и неоднозначных релизов. Собрал всё, что нельзя пропустить. Кратко и по делу — как мы любим. Arrowhead Studios совместно с Nixxes Software выпустили экспериментальную сборку Helldivers 2 для ПК, которая уменьшила размер игры на 85%. Вместо прежних 154 ГБ теперь требуется всего 23 ГБ. Для этого удалили дублирующиеся файлы и применили новые методы сжатия. Разработчики отмечают , что цель была приблизить ПКверсию к консолям, где игра занимает примерно 35 ГБ. Огромный вес давно раздражал игроков, особенно тех, кто использует HDD или ограниченные SSD. Теперь тестовая версия под названием prod_slim доступна в Steam в разделе бетаверсий. Подключиться можно через свойства игры в библиотеке. По словам студии , снижение размера Helldivers 2 практически не влияет на качество контента и лишь немного затрагивает скорость загрузки на жёстких дисках. В остальном геймплей остаётся прежним. Разработчики продолжают тестировать оптимизацию, чтобы в будущем сделать «облегчённую» версию стандартом для всех игроков. Довольно редкий случай, когда апдейт не добавляет контент, а наоборот убирает лишнее. И от этого только лучше. В игру добавили новое мастерство Forge — систему, вдохновлённую мифами о Гефесте. С его помощью можно ставить механические ловушки и улучшать экипировку. Помимо этого, появились новые амулеты и реликвии. Их осколки теперь можно комбинировать или вставлять в предметы, усиливая характеристики. Мультиплеер вышел из тестовой версии и стал частью основного клиента. Разработчики подтянули стабильность соединения и увеличили шанс выпадения предметов, подходящих под стиль игры персонажа. Также исправили ряд ошибок и подкорректировали баланс. Полный список обновлений — здесь . Titan Quest II продолжает развиваться в раннем доступе и уже собрал 88% положительных обзоров за последние 30 дней. Судя по реакции игроков, проект уверенно движется к полноценному релизу. Событие продлится до 5 января. Нас ждут традиционные скидки до 90% и голосование за финалистов Steam Awards. Именно в этот период многие пополняют библиотеки десятками игр. Ктото наконец купит игру мечты, а ктото снова пополнит коллекцию «никогда не запущенных». На экранах зрители увидели короткий отрывок с главной героиней Грейс Эшкрофт. В кадре она пробирается по тёмному особняку и сталкивается с зомби. Сцена построена на напряжении: несколько выстрелов мимо, схватка с противником и внезапное появление ещё одного монстра за углом. Игроки отметили , что стиль и подача сильно напоминают ремейк Resident Evil 2. Разработчики явно делают ставку на атмосферу ранних частей: медленный темп, узкие коридоры и ощущение постоянной угрозы. По словам инсайдеров, именно такой баланс ужаса и экшена станет основой девятой части. Релиз Resident Evil Requiem назначен на 27 февраля 2026 года. Игра выйдет на ПК и консолях, а подробности Capcom обещает раскрыть в январской трансляции. Судя по реакции фанатов, ожидания высоки: многие называют Requiem «возвращением к корням». Похоже, Capcom действительно решили сыграть на ностальгии. Вопрос лишь, хватит ли этого, чтобы удивить игроков? После долгих переносов и перезапусков разработка космического хоррора Routine завершилась. Проект студии Lunar Software впервые показали ещё в 2012 году, но релиз состоялся только в 2025м. Routine переносит нас на заброшенную лунную базу, оформленную в духе научной фантастики 80х. Атмосфера строится на ретрофутуристическом дизайне, VHSэстетике и минимальном интерфейсе, чтобы усилить эффект погружения. Предстоит исследовать локации, решать головоломки и выживать, скрываясь от опасных роботов или вступать с ними в бой. Отдельное внимание уделено звуку: до 2024 года над ним работал Мик Гордон, известный по DOOM. Его наработки остались в финальной версии, и именно они создают напряжённую атмосферу: от скрипов и гулов до резких переходов в тишину. Routine переведен на русский и продаётся в Steam за 792 рубля. Игра стала дебютом команды и вышла на ПК и Xbox, а также попала в подписку Game Pass. Пример того, как «долгострой» может оправдать ожидания. После 13 лет разработки хоррор наконецто вышел и выглядит как настоящий подарок фанатам жанра. В дополнении появились два новых героя — Учёный и Могильщица. Первый специализируется на магии и поддержке команды, а вторая способна выдерживать удары и наносить мощный урон молотом. Игрокам предстоит исследовать Великую Пустоту — огромную каверну с древними храмами, руинами и кристаллами, испускающими ядовитый туман. Именно здесь скрываются новые противники, а также боссы из прошлых игр, например Арториас. DLC доступно на PS4, PS5, Xbox One, Xbox Series XS и PC. Стоит около 15, а владельцы Deluxeверсии Nightreign получают его бесплатно. Чтобы открыть новых героев, нужно выполнить определённые условия в основной игре. Например, победить Трицефалоса. Nightreign уже разошёлся тиражом более 5 млн копий, и сообщество активно ждало свежий контент. Надеюсь, DLC оправдает ожидания. В этой онлайнпесочнице мы участвуем в абсурдном судебном процессе, где роли распределяются между участниками. Один становится прокурором, другой — судьёй, а третий пытается оправдаться в роли обвиняемого. Всё это сопровождается картами с доказательствами и нелепыми аргументами, которые делают весь процесс очень веселым. Разработчики недавно добавили полноценную поддержку русского языка, что заметно расширило аудиторию проекта. До этого фанаты пользовались любительскими переводами и нейросетевыми русификаторами. Guilty as Sock! вышел 29 мая и получил «очень положительные» отзывы. Также сейчас на него действует скидка 20% до 15 декабря — можно купить всего за 192 рубля. Grinding Gear Games готовят к релизу патч, который впервые введёт в игру друидов. Вместе с новым классом появится свежий эндгеймбосс и дополнительные варианты восхождения. Мы также сможем протестировать новую лигу, где ключевая механика связана с созданием собственного подземелья. Отдельно разработчики отмечают технические улучшения. Оптимизация снизила нагрузку на процессор, и средний FPS должен вырасти примерно на 25%. Для проекта, где масштабные битвы часто перегружают систему, это заметный шаг вперёд. С полноценным релизом GGG пока осторожны. Студия хочет выпустить версию 1.0 до конца 2026 года. Таким образом, декабрьский апдейт станет важным этапом: он одновременно расширяет контент и делает игру стабильнее. А друиды — это ещё и новый повод вернуться в PoE2 . Rockstar анонсировали крупное дополнение A Safehouse in the Hills, которое выйдет 10 декабря. Главная новость — возвращение Майкла де Санты, одного из трёх протагонистов GTA V. В трейлере он появляется заметно постаревшим, вместе с женой Амандой. Это важный сюжетный шаг: разработчики подтвердили , что каноничным финалом GTA V является миссия, где выживают все трое героев. Актёр Нед Люк вновь озвучил персонажа, впервые за 12 лет после релиза GTA V. Его появление завершает «трио» возвращений: ранее в GTA Online уже появлялись Франклин (в дополнении The Contract) и Тревор в отдельных миссиях. Теперь мы увидим, как изменилась жизнь Майкла спустя годы после событий основной игры. Rockstar явно готовят почву перед выходом GTA VI, но при этом дают игрокам шанс ещё раз вернуться к героям пятой части. Для комьюнити это не просто контентапдейт, а символическое закрытие истории GTA V . После выхода полной версии игры в Steam онлайн резко вырос: 25 тысяч игроков одновременно были в игре. Это в несколько раз больше прежнего рекорда, установленного в 2023 году после релиза четвёртого эпизода. Для проекта, который долгое время оставался нишевым, такой скачок стал знаковым. Однако с ростом интереса пришла и волна критики. Финал, включающий 20 разных концовок, оказался для многих фанатов разочарованием. Игроки отмечают повторяющиеся сцены с минимальными изменениями, противоречия между сюжетными линиями и слабую «истинную» концовку, которая не вызвала ожидаемых эмоций. Начались и претензии к визуалу: часть аудитории заподозрила использование нейросетей при создании некоторых сцен. Это вызвало споры о том, насколько финальная часть соответствует уровню предыдущих эпизодов. Так «Зайчик» одновременно стал самым популярным и самым обсуждаемым проектом в жанре российских визуальных новелл. Рекордный онлайн показывает высокий интерес к игре, но реакция на концовку ясно даёт понять, что ожидания аудитории были куда выше. Bungie запустили акцию Destiny 2: Open Access Week, в рамках которой до 9 декабря открыт доступ ко всем дополнениям, рейдам и данжам. Можно свободно исследовать контент, который раньше требовал покупки, включая сюжетные кампании и эндгеймактивности. Важно: весь прогресс, собранный лут и внутриигровая валюта сохранятся на аккаунте даже после окончания акции. Open Access проводится на всех платформах: ПК, PS и Xbox. Для подписчиков Xbox Game Pass акция также интегрирована в программу Free Play Days. В целом, это отличный шанс для тех, кто давно хотел попробовать Destiny 2 во всей красе, но не решался тратить деньги. Но игра не будет постоянно бесплатной — это лишь временный бонус. Вот и всё на сегодня. Интересных новостей много, но больше всего радует, что наконецто студии начали бороться с раздутыми размерами, а не оправдывать их. Еще я готовлюсь закупаться к «Зимней распродаже». А что вы считаете главной новостью недели? Интересно узнать ваше мнение.
9,358
https://habr.com/ru/companies/2gis/articles/970006/
habr.com
Не так давно на запланированном звонке в Zoom в присутствии команды коммуникационного дизайна 2ГИС, а также артдиректора, тимлида и любопытствующей публики прошла защита проектов на курсе «Основы шрифта». Дизайнеры показали шрифты, которые они проектировали в течение трёх месяцев и рассказали, как их можно использовать. Я слушал коллег и любовался проектами, но, как это часто бывает на всех звонках, медленно погружался в собственные размышления — в частности о профессии и преподавании. Шрифтовой дизайн — консервативное ремесло. Несмотря на разные инструменты производства букв, сегодня мы легко прочтём текст, набранный шрифтами Клода Гарамона (кстати, Google при поиске имени типографа услужливо поменяет интерфейс). При этом и он бы сейчас без труда прочёл тексты, набранные шрифтами дизайнеров 2ГИС. Кроме того, шрифтовой дизайн считается сложным делом, постигнуть которое дано избранным. Один мой знакомый, проектировщик железнодорожных мостов, рассказывал, что в их инженерной среде в элите числятся метростроевцы, потом — строители мостов, и на третьем месте расположились проектировщики гражданских строений. В похожей иерархии существует и шрифтовой дизайн — в сообществе графических дизайнеров принято считать «шрифтовиков» кемто вроде метростроевцев. Шрифт как искусство и вправду непростое занятие и, в отличие от инженерного дела, не существует такого учебника, по которому можно научить проектировать шрифты. Но что вообще значит — научить? Когда Жора Погребняк, тимлид команды коммуникационного дизайна 2ГИС, предложил мне провести для коллег курс по основам шрифтового дизайна, я засомневался, но решил положиться на его опыт. К этому времени дизайнеры в команде уже научились учиться — занимая час по утрам пятниц, регулярно тренировались в перевёрстках проблемных макетов (на выходе — всегда готовые решения, пусть и в разной степени проработки). В похожем формате Жора успешно провёл свой курс по основам вёрстки . В команде складывалась хорошая традиция обмена опытом, на пятничных созвонах вырабатывалась понятная всем терминология, попутно можно было перемыть косточки заказчикам и немного выпустить пар, не заботясь о «правках», «бренде» и «метриках». В терминологии филолога Михаила Бахтина, в этот пятничный час дизайнеры немного карнавализировали свою ежедневную практику в 2ГИС. Фамильярный и порой дурацкий контакт с серьёзными задачами из реальной практики помогал выйти к свежим образам и просто окрепнуть перед новыми вызовами. Однако курс про шрифт мог бы превратить этот карнавал в летаргический сон. В команде 2ГИС очень разные дизайнеры с неповторимым опытом и навыками: комуто легко удаётся стремительный леттеринг по случаю, ктото замахивается на полноценный шрифт в базовом латинском и кириллическом знаковом составе, а ктото попросту боится рисовать буквы изза уже упомянутого «метростроевского» мифа. Академический подход — чередование лекций и практических занятий — довольно быстро создал бы для всех слишком комфортные условия: в одну пятницу ты пассивно слушаешь час лектора, в другую — уже не помнишь рассказанного и не понимаешь, как это применить в деле. Разумным казалось бережно отдавать каждый пятничный час практике, а часть занятия посвящать обратной связи, комментированию и разбору нарисованных букв. Программу курса мы выстроили именно так: за фасадом академической структуры скрывалось поле экспериментов. Например, когда мы решили поговорить о классификации шрифтов, то не стали разбирать особенности каждой категории (всётаки 500 лет типографики непросто познать утром в пятницу), а сосредоточились на том, какие особенности рисунка знаков сыграли решающее значение в развитии формы шрифтов. Эти параметры мы собрали в один список и договорились, что за час нужно нарисовать 24 вариации буквы R, с каждым шагом изменяя только один параметр из списка — ширину буквы, контраст, форму терминалов и так далее. В этом ритме мы старались продвигаться по программе курса на каждой встрече. Мои опасения, что мы пытаемся протянуть канат сквозь игольное ушко (так я представлял себе курс шрифтового дизайна, на который отведён час в неделю), постепенно исчезли. В свою очередь, у коллег исчез (насколько я могу судить по курсовым проектам) страх перед недоступностью шрифтового дела. Оглядываясь назад, с интересом могу сравнить академическую аудиторию и нашу компактную группу внутри 2ГИС. Пожалуй, их главное различие — мотивация. Для потока студентов графического отделения первого курса в крупном учебном заведении «шрифт» — лишь одна из многих дисциплин в расписании, расположенная гдето между физкультурой и фотографией. В такой ситуации задача преподавателя — заинтересовать студентов предметом. В случае с нашим курсом внутри команды интерес был даже немного завышенным, и энтузиазм дизайнеров нужно было направить в правильное русло. Когда я говорил об изначальной высокой мотивации участников курса, то имел в виду не только готовность учиться новому, но и желание развить проекты, сделанные самостоятельно до курса. Курсовые работы дизайнеров 2ГИС показали, что шрифт как базовый навык для коммуникационного дизайнера, как правило, хорошо развит — на уровне умения сделать толковый леттеринг. За этим словом скрывается задача по созданию короткой надписи — для логотипа, заголовка статьи, плаката. Чаще всего леттеринг остаётся в рамках этой надписи, и не развивается в полноценный шрифт. Но иногда дизайнер видит развитие нарисованных букв до целого алфавита, однако для этого шага нужно больше времени, специальный софт и уверенность, что в будущем этот шрифт можно будет использовать как рабочий инструмент. Другую мотивацию продемонстрировал Саша Гончаров — он вынашивал давний замысел шрифта, вдохновившись советской вывеской из Новосибирска. Это тоже частый случай: изначальный импульс сделать шрифт угасает, наталкиваясь на нехватку времени, дробный фокус внимания, неуверенность в дальнейшей роли шрифта. Пятничные тренировки позволили Саше развить шрифт до базового знакового состава в латинице и кириллице, подготовить контуры для сборки полноценного инструмента. Шрифт — это не только заранее запрограммированный комплект букв. Знаками в шрифте могут быть и неалфавитные символы: орнаменты, стрелки, эмодзи и любые векторные объекты. Этот путь выбрала Настя Киселёва и превратила свой проект в небольшое исследование орнаментов стран, в которых официально работает 2ГИС: Россия, Казахстан, Кыргызстан, Узбекистан, Азербайджан, Италия, Чехия, Чили, ОАЭ, Кипр, Беларусь. Настя собрала небольшую библиотеку орнаментов из открытых источников для каждой страны, затем выбрала из неё наиболее интересные по рисунку образцы — по четыре на каждую страну. Отрисованные орнаменты она поместила на места строчных и заглавных знаков — так получился экспериментальный шрифт, с помощью которого можно быстро с клавиатуры создавать ритмичные паттерны. Ещё одна сюжетная линия сложилась в проекте иллюстратора Павла Концевича. Его шрифт — сознательное самоограничение в выборе инструментов рисования и параметрах будущего шрифта. Паша мастерски создаёт необычные, очень ритмичные надписи, используя свойства разных инструментов — кисть, перо, карандаш. Однако в курсовом проекте он решил сгенерировать параметры шрифта на TypeCooker (известный всем студентам и преподавателям обучающий сайт, созданный Питером ван Блокландом ) и строго придерживаться их. В результате получился оригинальный гротеск с отзвуками 1970х и интернационального модернизма. Шрифт Modern Bends Галины Марковой — пример преодоления технической проблемы. Для Гали сложность представляли кривые Безье, работа с контуром в таких серьёзных масштабах, как множество знаков в алфавите. Мы условились, что проект должен стать для неё вызовом — и главное в нём не новизна графической идеи, а точная прорисовка контуров. Для этого отлично подошёл образец крупного деревянного шрифта из дореволюционного каталога акционерного общества Осипа Лемана. В результате у Гали получалась крепкая историческая реконструкция, в которой она уловила модульность построения большинства знаков. За время курса произошло главное: ушёл страх. У меня — перед игольным ушком сроков, у дизайнеров команды — перед почитаемым всеми ремеслом. После «Основ шрифта» мы провели ещё один курс, на этот раз посвящённый навыкам леттеринга, где работали не только над буквами, но и умением применять их в брендинге, акцидентной печатной графике и цифровых продуктах. Для нас буква как искусство осталась секретом — и перестала им быть. Кажется, это хорошая точка на карте для новых исследований. Рустам Габбасов , графический дизайнер, редактор журнала « Шрифт »
8,557
https://habr.com/ru/articles/971900/
habr.com
Работаю в ИТ с 2004 года. Пришёл осознанно в индустрию не за деньгами по любви к технологиям и тишине, когда можно заставить машину делать нужные вещи. Начинал с настольных приложений на Delphi, бэкенд на Python, немного React. Сейчас Финтех. История о том, как, работая тимлидом Pythonкоманды, решился принять вызов на переход в сферу 1С и что из этого вышло. Работал в Финтехе два года на позиции сеньора, потом — тимлида Pythonкоманды. Команда из 5 человек. Сменились два CTO, и, так как Python не являлся основным стеком компании, я решил уйти в другую компанию. Пройдя собеседование, получив оффер, пришёл к боссу с заявлением. С одной стороны, манили перспективы, с другой — было желание получить более высокую зарплату на текущем месте, что, как я понимал, было невозможно, так как и статус, и зарплата были тем самым потолком, выше которого не прыгнешь. Босс (ещё тот психолог) сделал неожиданное предложение: хочешь большего — бери больше ответственности, бОльшую команду. И такой командой (а их 5 одной направленности) оказалась сфера 1С. На моё удивление по поводу некомпетентности в 1С он имел своё мнение: умелому и хорошему руководителю не так важна техническая составляющая, как другие навыки. «До какого возраста ты планируешь сидеть в разработке и заниматься сервисами, может, стоит двигаться вперёд и принимать решения о том, как должно выглядеть ИТ?», — спросил он. И я поддался на это «слабо». Направление в тот момент представляло 4 команды разработки и техническая поддержка, всего 25 человек, пять тимлидов. Прийти в команду, в которой ты технически ничего не понимаешь, более того, являлся большим противником разработки на 1С, это реально вызов. Вызов был принят, и я начал погружаться в работу, вникать в то, как работает система, что такое кластер 1С, конфигурация, как обеспечивается совместная работа разработчиков в 1С, ну и, конечно же, бизнес. Стек 1С входил в основной стек разработки Компании: это биллинг, кредитные истории, судебное взыскание и бухгалтерская отчётность. Наследие досталось сложное. С одной стороны, отличные, знающие специалисты, с другой — положение направления в ИТконтуре Компании. Люди — основа любой команды, и они были как бы демотивированы уходом предыдущего лидера и ИТдиректора (тоже 1сник), но в то же время готовы работать и поддерживать то, что строили вместе. Я не ставил задачу конкурировать с предыдущим лидом за позицию внутри команды; никаких разборов, как было хорошо и как сделаем лучше, не было с моей стороны. Тем более, до меня руководители были именно специалистами 1С. Основная задача была сплотить команду, сохранить достижения, выйти из пике проблем, свалившихся на направление, и чтото небольшими шажками менять. Изменения были глобальные внутри Компании: мы расширялись, появлялся первый международный бизнес, поэтому нужны были зрелые кадры с видением того, как оно будет, то есть перспектив. Начал я со знакомства с основными клиентами систем. Мой первый шаг понять, как устроена система со стороны клиентов, что ожидают от системы и какие есть проблемы. Мы разобрались с коллегами по основным вопросам кто за что отвечает, что делает и к кому приходить для решения спорных моментов. Следующим шагом было выполнение обязательств ушедшего тимлида в отношении работников: повышения, грейды и перестановки. И здесь руководствовался только личными встречами, пониманием ответственности и задачами, которые были у сотрудника. Разговора о задачах, понимания глубины погруженности и азарт вполне достаточно, чтобы понять, кто перед тобой заинтересованный сотрудник или тот, кто просто решил воспользоваться моментом. Мы общались, говорили, разбирались в ситуациях. Спустя почти три года мне попалось несколько хороших книг на эту тему. И в них нашел мысли, подтверждающие правильность моих шагов, действий. Очень важной на эту тему хочется назвать книгу Майкла Уоткинса «Первые 90 дней» . Именно эти непростые 90 дней считаются критическим периодом для любого лидера в его новой роли. Именно в это время формируется репутация, выбираются приоритеты и закладывается фундамент будущего успеха или провала. Успех зависит от того, насколько быстро лидер адаптируется, поймёт контекст и начнёт создавать ценность. Вторая, тоже очень интересная книга, перекликается с книгой Уоткинса, но больше ориентирована на техническую стратегию. Рекомендую к прочтению эту книгу — «Технический директор. Эффективное техническое лидерство», автор — Уилл Ларсон. За первый квартал хотелось выйти на технические и административные победы. Если с командой всё получалось болееменее неплохо, то оставались классические проблемы, которыми нужно заниматься системно. Главную менеджерскую проблему можно описать просто: «Это не моя проблема, другой команды, пусть смотрят они». С техническими успехами было сложнее. Мой приход пришёлся на рост Компании, и с самых первых дней возникли проблемы со сверками данных при закрытии периода, обновлением типовой, но достаточно сложной конфигурации с внешним вендором. И это уже налаживал последовательно. Недаром в названных мной книгах (конечно же, есть и другие, не менее интересные в познавательном плане) много внимания уделяется командам. Большим откровением было то, что для команд нет неразрешимых задач. Задача руководителя увлечь сложной задачей, заинтересовать и дать возможность поспорить разумное время над техническим решением и затем не беспокоить во время реализации. Помня свой прошлый опыт разработчика, старался максимально не отвлекать от работы, не вмешиваться по мелочам и в технические решения. Конечно, сложные задачи встречаются не каждый день, есть рутина, обычная каждодневная работа. Но даже в рутине можно найти возможности для её оптимизации. Хочешь крутую, всё решающую команду вкладывайся в обучение , вкладывайся в мотивацию . Будь для команды тем, с кем хочется работать. Создай атмосферу спокойствия, не надо доставать вопросами «ну что, когда?», «ещё не готово?». Для того, чтобы избежать необходимости поминутно спрашивать и жёстко контролировать, следует искать зрелых, опытных специалистов, которые знают, зачем пришли в эту Компанию, и готовы ко всякого рода сложностям. В моём случае, почти все были заряжены и готовы выкладываться. Оставалось дело за малым — найти челленджи для команд, а тимлиды уже эти челленджи раздадут внутри. Будучи както на TeamLead Conf, услышал, что тимлид не психолог и не родитель для сотрудника, а руководитель и коллега. Не получился в работе такой подход. Потребовались навыки психологии отношений, навыки коммуникаций. Не раз приходилось участвовать в личных проблемах коллег. И это не про то, чтобы быть родителем, это про участие и помощь. Помощь может быть разной: внимание, умение выслушать, дать разгрузку с задачами, смена графика работы. И, должен сказать, это ценится, находит отклик у сотрудников и сказывается на результатах работы. Слушай своих подчинённых, говори с ними – вот классный совет. Большим откровением был этап планирования квартальных затрат на направление. Это заблаговременный долгий процесс, где необходимо балансировать между премией, поездкой на конференцию и повышением заработной платы сотрудникам. Невозможно угодить всем, всегда будешь для когото недостаточно хорошим. У всех разная мотивация и разные цели. И вот здесь мне пришлось себя менять. Будучи разработчиком и работая теперь с бюджетом, хотелось дать нечто большее для сотрудников: премии, поездки на конференции, прием на работу новых сотрудников под новые задачи. Но теперь я на другой стороне и одна из моих задач — экономить деньги Компании. Стратегически заглянуть в будущее, разобраться с нагрузкой, способностью производить ценности у команд и заложить это всё в бюджет. Да ещё потом и защитить бюджет перед своим боссом. ИТдиректор и команда проектного офиса запустили классный механизм оценки пользовательских историй и задач в деньгах. Команды оценивают новые фичи, которые, по замыслу продактов, должны приносить деньги, а система Jiraотображает их стоимость. Стоимость, естественно, усредненная по командам. Общими усилиями вывели стоимость часа у всех стеков. Отличное подспорье для руководителей, лидов и команд для понимания того, сколько будет стоить Компании их работа. И да, кстати, руководитель не приносит прямой прибыли, мы в статье расходов, но расходы — с повышенной ответственностью. Что такое ответственность? Так часто можно услышать: бери ответственность на себя, делай больше. Ответственностью называют законченную задачу от начала до конца. Сначала – понять, полностью декомпозировать, найти классного исполнителя, донести исполнителю задачу, а затем часто или нечасто контролировать процесс. Я сам инженер и не люблю, когда вмешиваются в процесс. Итогом должна стать приёмка и, если можно так сказать, печать ОТК, что означает: результат проверен и годен. В моём случае ответственность — это понимание задачи, доведение до исполнителя, контроль и получение результата. Если результата нет, вина моя. В любом случае, и каждый недочёт – вычет из моего кредита доверия. Тут возникает интересная история: если результат хороший, то это достижение исполнителя, если результат не достигнут, виноват руководитель. А дальше уже сам ищи виновных и наказывай. Да, наказание и премии. У руководителя должны быть инструменты поощрения и наказания. Без них не получится быть управленцем. С поощрением всегда просто: сделал задачу – получи награду. Но нет, и здесь есть нюансы. А за что награда, ведь ты получаешь уже свою заработную плату, это твоя обязанность приносить ценность Компании. Где эти сверхусилия, за которые полагается дополнительная плюшка? Не всё так просто и с наказанием. Если наказывать за каждую ошибку, то не будет роста. Если не наказывать, а только журить, то прослывешь мягким и дисциплины не добьешься. Накажешь – станешь плохим. В этом случае хорошо быть новым руководителем в незнакомой команде, когда никого ещё не знаешь и рубишь направо налево. Познакомившись с сотрудниками поближе (а с сотрудниками, как я уже говорил, нужно не просто разговаривать, но и слышать их), не сможешь уже просто так рубануть сплеча по премии. В этой связи у меня хороший пример. Моим первым руководителем в далёком 2005 году была женщина. Так она всегда сама спрашивала: «Ну, что думаешь: как следует наказать за такой проступок (ошибку), который совершил второйтретий раз?». Ну и сам придумываешь. А что можно придумать? Лишаешь сам себя премии да плюшек. В то время ещё были офисные плюшки в виде отдельного кабинета да нового кресла. Сейчас уже такое не пройдёт. Одной из первых ошибок было решение оставить технически крутого специалиста на позиции тимлида ключевой группы расчётов. Решение о его назначении было принято не мной, но я не увидел проблем в работе. Куча административной работы, управление командой, отчёты, технические сложности с закрытием бухгалтерского периода изза ошибок сверок, сложностей с ростом Компании (объёмы данных) сделали своё дело, и тимлид ушёл. Деньги и просьбы остаться не помогли. Мне пришлось перехватить команду в административной части. Сложный период, когда, помимо общей работы с направлением, пришлось заниматься командой, связанной с бухгалтерией и операционным отделом. Не каждый может стать тимлидом. Тимлид — это не только высокая зарплата, но и большая ответственность и повседневная административная рутина, которая, как иногда кажется, отвлекает от масштабных, серьезных дел. Это встречи ради того, чтобы договориться, это контроль сроков за теми, кто не любит сроки, работа с вредными пользователями и программистамизвёздами, которые тоже, к слову сказать, не любят сроки и простые задачи. Памятуя о том, как важно общаться и быть в курсе переживаний тимлида и сотрудников, я общался с лидами, прямыми подчинёнными (администраторы, архитектор, некоторые разработчики). Но снова попал в ловушку. Спустя полтора года другой тимлид решил уйти из рутины. Я поддержал его стремление к развитию, не препятствовал. Однако проблема возникла внезапно изза внутренних перипетий команды: новый тимлид не хотел оставлять в команде слегка чуждую конфигурацию. Конфигурация, по правде говоря, была непрофильной для команды и достаточно сложной. Сложность, скорее всего, состояла изза её влияния на регуляторные риски и бизнесвладельца. Вёл её один разработчик с самого начала работы в Компании. Будучи отцом конфигурации, на которой он вырос и только ею занимался, при внезапном уходе лида, захотел себе целую команду и роль лида, или, на крайний случай, эксперта с ростом заработной платы х2. Иначе уход, иначе развод. И вот здесь крылась моя вторая ошибка, в которой себя виню, конфигурация была завязана на одном специалисте, дублёра не было, никто не знал, как все это устроено в подробностях. Конечно же, конфигурацию перехватил другой специалист, разобрался, но ценой немалых затрат. Месяцы инцидентов и удары по KPI команды. Урок из проблемы: все проекты, сервисы должны иметь дублёров, пусть не одинаково глубоко погруженных технически, но тех, кто в курсе, как оно работает. При закрытии квартала мы столкнулись с техническими проблемами. Своими силами решить не получилось. Рекомендации от вендора не помогали либо были настолько оторванными от реальности (добавьте 512 Гб памяти и всё будет нормально), что лучше бы их не было. «Мы крутые, мы справимся» не сработало, нужно было признать это и идти к специалистам. Специалистом оказался Антон Дорошкевич с командой Инфософт в Новосибирске. Очень благодарны за решение проблемы в кратчайшие сроки. Оформили подписку на обслуживание в SLA. И ещё один инсайт для меня надо повышать квалификацию внутри команды , у нас есть пробелы в техничке. Повышали через платные курсы, обучение. Ввели дополнительную штатную единицу администратора 1С со смещённым часовым поясом, чтобы покрывал время, когда администратор в Новосибирске отдыхает. Ну и ещё одна интересная ошибка, самаясамая. Мы с лидом решили разделить одну большую конфигурацию, в которой очень много юридических лиц. Согласовали работы, проговорили с бизнесом и пошли делать. Но работа встала. Бизнес отказался работать по договоренности: нет времени, не моя забота, спросите у главного бухгалтера, узнайте у директора. Ну конечно же, типичная проблема, которую узнает любой профессиональный менеджер после вуза: не собрали рабочую группу, не выделили РП и не запустили проект в работу официально с промежуточным контролем сроков, и т.д, и т.п. Всё это приходит со временем. Читайте книги, слушайте коллег. Будут ошибки, но и придёт озарение. Самый частый вопрос от смежников и своих: полюбил ли я 1С, стал ли понимать язык? В начале пути не было времени на погружение в язык. Вопросы общего характера покрывались знаниями из смежных языков программирования и подходами. Порой приходилось спускаться в глубину проблем, к примеру, наличие git для хранения кодовой базы, организация одновременной работы разработчиков с кодом, межсервисным взаимодействием. В определённый момент появилось желание узнать устройство языка. Начал смотреть известный курс на 20 дней. И меня бомбануло. Вещи, которые в настольных приложениях на Delphi делались в несколько часов, в 1С можно сделать мышкой и выбором из списка. Все стандартные операции по работе со списками и таблицами встроены в платформу и не требуют написания кода вообще. Технически интересно, но это как будто всё начинать сначала. Дойти до конца не получилось, хотя коллеги поддержали начинание и готовы были помочь. Внутри не смог убедить себя в надобности постижения азов программирования нового языка. Азы программирования не спасли бы, а понимание изнутри системных вещей требует базовых знаний. Оставил курс, но к затее периодически возвращаюсь. Более технически взрослые и состоявшиеся лиды и сотрудники приняли этот момент и не требуют погружения в технические дебри при объяснении. Достаточно раскрыть концепт. За два года погружался в решение технических вопросов. Мнение об 1С как об отсталом продукте изменилось. Мощный и решающий много задач продукт, закрывающий очень много потребностей. Огромный плюс наличие удобной графической составляющей для вёрстки интерфейсов. Огромный минус для 1С и всей индустрии большое количество новичков, считающих себя готовыми к системной разработке. Проблема в том, что порог входа действительно низкий, но нет никакого понимания, как писать удобные интерфейсы и устойчивый код, как организовать правильно работу со смежными системами. Главная загадка для меня в этой большой вселенной 1С приходящая в негодность конфигурация после обновления, иногда даже при обновлении в монопольном режиме. Продолжаю заниматься разработкой на Python в рабочее и свободное время. В рабочее за счёт включения старой команды Python в состав 1С направления. Какаято часть сервисов Python разрабатывалась для 1С, и теперь взаимодействие между командами стало проще. Свободное время выпадает не так часто, но появляется и это время наслаждения кодингом. Моя задача — выбрать правильных людей. При возникновении проблемы — правильно сформулировать вопрос, задать его специалисту и найти лучшего для воплощения в жизнь. Нет идеального исполнителя. Есть те, кто хочет сделать и умеет это делать, а ещё есть те, кто хочет сделать, но не умеет и хочет научиться. Однозначного ответа, кого следует выбрать, нет. Иногда нужно отдать тому, кто умеет, чтобы сэкономить время на решении. Если позволяет время, можно дать возможность научиться тому, кто не умеет, но стремится, жаждет научиться. Что делать с возникающими у сотрудников ошибками? Ошибки будут всегда. Без ошибок не получится вырасти. Хорошо, когда сотрудник учится на чужих, но обычно понимание приходит, когда наступает, и не раз, на собственные грабли. Если каждый раз наказывать за ошибки, будет страх их совершать, будут делать под копирку, используя известные стереотипы. Дать возможность ошибиться, даже если видишь, что делает не так, мне кажется полезным. Укоряю только за повторные ошибки, которые были проработаны и которые не назвать иначе, как глупостью. Увольняться сложно, увольнять ещё сложнее. С одной стороны, есть трудовой кодекс и жёсткие правила расставания, а с другой — ты, как руководитель, должен получать от сотрудника качественный результат. Должен минимизировать ущерб от сотрудника. Мне не приходилось увольнять по статье, так как были негласные договорённости, когда трудовые отношения подходили к концу. С моей стороны сотруднику предлагались более простые и неинтересные задачи, в которых не ошибёшься, затем снижалась премия за низкие результаты. Как правило, мы понимали друг друга и расходились плюсминус цивилизованно. Но как быть, когда сотрудник приходит и хочет уходить из разработки в аналитику? В команде оставить сложно, уже неинтересны текущие задачи, можно попробовать штатную единицу разработчика превратить в аналитика, дать новые задачи. Но аналитику для развития лучше крутиться среди своих. Специалиста мы потеряем в любом случае, так почему бы не отдать или рекомендовать в тот отдел, куда ориентирован его интерес, если душа лежит к новому делу? Поверьте, сотрудник этого не забудет. Управление — это про знание понемногу в разных областях, понимание общей канвы, умение быстро вникнуть в проблему и найти подходящего специалиста для решения задачи. Ну и конечно же, нужна хорошая память для контроля поставленной задачи, чтобы не замылилась она в общем потоке. И ещё мне повезло с моим руководителем, который умеет делать предложения, от которых сложно отказаться. Босс немногословен при общении, но за каждым словом стоит решение проблемы, а разговор — как посещение конференции TeamLead Conf. Какова цель моей статьи? Желание выговориться, порефлексировать и проанализировать ситуации, в которых оказывался. Желание описать и оценить свой опыт, принятые решения. Возможно, что комуто будет интересен мой опыт, а мои размышления пригодятся в похожих ситуациях. Ларсон Уилл. Технический директор. Эффективное техническое лидерство Майкл Уоткинс. Первые 90 дней. Стратегии успеха для новых лидеров всех уровней
19,844
https://habr.com/ru/articles/973468/
habr.com
В нашем сообществе Open Source программистов, мы поняли что авторы часто замыливают глаз, работая над своим проектом. Им необходим свежий, взгляд со стороны обычного разработчика, который впервые заходит в репозиторий. Мы запустили практику публичных разборов проектов наших участников чтобы наглядно продемонстрировать важность внешнего вида и удобной структуры вашего репозитория, подчеркивая эти факторы они облегчат вход в проект новым пользователям и контрибьюторам. Качественное README.md , четкие инструкции по установке и использованию, понятная лицензия, это аспекты которые нельзя недооценивать. README.md должен за 30 секунд продать ваш проект потенциальному пользователю или контрибьютору. Привлекательность репозитория и удобство написания первого коммита, изза CONTRIBUTING.md и понятных Issues . Часто без всего этого проект остается без пользователей и контрибьюторов . А если добавить к этому сообщество и нашего telegram бота , который автоматически доставляет подходящие issues прямо в ленту контрибьюторам, то вы повышаете интерес к вашему проекту! Не стесняйтесь, и присылайте свой проект на конструктивный разбор!
1,135
https://habr.com/ru/companies/onlinepatent/articles/974904/
habr.com
Мелодия — одна из самых значимых звукозаписывающих компаний в истории СССР и постсоветской России. Основанная в 1964 году, она стала монополистом в производстве грампластинок в Советском Союзе. За десятилетия существования фирма «Мелодия» выпустила огромное количество записей классической, эстрадной, джазовой и народной музыки, а также литературных и детских программ. Ее виниловые пластинки стали культовыми, а логотип — узнаваемым символом советской музыкальной индустрии. История Мелодии началась с реорганизации Всесоюзной студии грамзаписи, которая до этого занималась выпуском пластинок. После создания компании она получила эксклюзивные права на производство и распространение аудиопродукции в СССР. В советское время Мелодия контролировала все аспекты — от студийной работы до тиражирования пластинок. В ее стенах записывались самые известные исполнители, включая Аллу Пугачеву, Владимира Высоцкого, ансамбль «Песняры» и многие другие. Студии находились в Москве, Ленинграде, Риге, Таллине, Вильнюсе и многих других городах Союза. Особенностью Мелодии было не только производство музыки, но и создание уникального каталога, включающего классические произведения, записанные ведущими советскими и зарубежными исполнителями. Лейбл сотрудничал с такими выдающимися музыкантами как Святослав Рихтер, Мстислав Ростропович, Давид Ойстрах и многие другие. Благодаря этому архив Мелодии до сих пор остается ценным источником музыкального наследия. Интересно также, что записи компании экспортировались в 90 стран. К началу 1990х фирма входила в шестерку крупнейших мировых звукозаписывающих предприятий. Она также издавала записи по лицензии зарубежных компаний. После распада СССР Мелодия столкнулась с серьезными трудностями, вызванными конкуренцией с западными лейблами и переходом на цифровые форматы. Однако компания смогла сохранить часть своего архива и продолжила работу, адаптируясь к новым условиям. В 2000х годах началось переиздание классических записей на CD и в цифровых форматах, что позволило Мелодии оставаться значимым игроком на музыкальном рынке. Ключевым активом Мелодии является ее интеллектуальная собственность. Компания владеет правами на огромное количество аудиозаписей, многие из которых имеют историческую и культурную ценность. Как сказано на сайте, Мелодия является изготовителем фонограмм, то есть обладателем смежных прав на большинство записей, сделанных на территории СССР с 1964 года. Если ктото планирует их использовать, то необходимо получить у нее разрешение. Речь идет о примерно 49 тысячах наименований. Среди них — «Я люблю тебя, жизнь », « Шуба дуба » и многие другие. У компании есть товарные знаки: как с логотипом , так и без . Также у Мелодии зарегистрированы бренды за рубежом, например, в США и Великобритании. В последние годы Мелодия активно занимается оцифровкой своего архива и выводом записей на современные платформы, такие как Spotify, Apple Music и YouTube. Это позволяет новым поколениям слушателей знакомиться с музыкой прошлых десятилетий. Кроме того, виниловые пластинки Мелодии снова стали популярными среди коллекционеров и меломанов, что привело к возрождению интереса к бренду. Несмотря на масштабные изменения в музыкальной индустрии, Мелодия остается символом эпохи и важной частью культурного наследия. Ее история показывает, как компания смогла пережить переход от монополии в СССР к работе в условиях рыночной экономики, сохранив при этом свои архивы (туда входят более 230 тысяч носителей звукозаписей) и продолжая делиться музыкой с миллионами слушателей. Сегодня Мелодия — это не только воспоминания о прошлом, но и действующий лейбл, который продолжает развиваться в современных реалиях. Недавно сообщалось, что фирма наладила производство виниловых пластинок на собственном заводе в Новосибирске. Первая партия, куда вошли записи работ Давида Тухманова, группы Zodiac и ВИА «ДосМукасан», уже поступила в продажу. Мелодия объяснила запуск производства высоким спросом со стороны любителей винила. Онлайн Патент — цифровая система 1 в рейтинге Роспатента. С 2013 года мы создаем уникальные LegalTechрешения для защиты и управления интеллектуальной собственностью. Зарегистрируйтесь в сервисе ОнлайнПатент и получите доступ к следующим услугам: Онлайнрегистрация программ, патентов на изобретение, товарных знаков, промышленного дизайна; Подача заявки на внесение в реестр отечественного ПО ; Бесплатный поиск по базам патентов, программ, товарных знаков;
4,431
https://habr.com/ru/articles/974306/
habr.com
Вам нужно подготовить текст (программу или статью), вы профи и прекрасно знаете как это делать, но в голове хаос из мыслей и гнетущее чувство сомнения. Силы тратятся на борьбу с самим собой, на то что бы вернуть свое внимание к предмету задачи после того как поймал себя на том, что снова отвлекся на какуюто ерунду — это мое личное ощущение при проживании прокрастинации. Если у вас ощущения проблемы совпадают, то есть шанс, что решение вам тоже подойдет. Всё, что вам нужно знать, умещается в три шага. Не читайте дальше, пока не выполните их мысленно для своей текущей задачи. Признайте состояние хаоса в голове , ощутите поток мечущихся мыслей. Найдите ядро. Задайте себе один вопрос: «Какое ОДНО слово лежит в самом центре того, о чём я должен думать или писать?» Не ищите идеальное слово, возьмите первое пришедшее на ум. Запишите его. Физически. На листе бумаги, в новом файле, в заголовке документа. Сделайте это слово материальным. Выбранное СЛОВО должно вызывать у вас максимальный эмоциональный отклик. Вы только что «включили голову». Вы прервали цикл паники и дали своему мозгу то, с чего можно начать — точку опоры. Дальше можно не читать. Основная мысль высказана. Если вы остались, значит, вам интересно не только «что делать», но и «почему это работает» и «как применять в жизни». Давайте разберёмся. Творческая прокрастинация (ступор перед началом работы) — это не отсутствие энергии. Это её избыток. Представьте, что ваш мозг — это атомный реактор. Начав работать над задачей, вы запускаете ядерную реакцию, которая генерирует энергию — мысли, идеи, варианты, страхи, сомнения. Но эта энергия не находит выхода, потому что нет проводника, нет фокуса. Она бьёт внутри, создавая тревогу, жар и желание сделать что угодно, только не саму работу. Лень — это когда реактор погашен. Вам все равно. Ступор — это когда он запущен на полную мощность, но вы не подключаете его к электросети, не начинаете заряжать полученным электрическим током мобильники и не включаете ночное освещение в городе. Когда ступор, то энергия мечется и находит выход там, где не нужно. Одно конкретное слово является рубильником проводником, через который вся накопленная мощь направляется в выбранный канал. Метод универсален для запуска любого процесса, он работает и в быту и в творчестве: Написать письмо. Ступор: «Блин, нужно быть вежливым, чётким, решить вопрос...» Якорь: Дедлайн . Вы написали одно слово — и письмо уже началось. Убраться в комнате. Ступор: «Всё разбросано, с чего начать, не хочу всю жизнь потратить на уборку». Якорь: Кровать . Подойдите и заправьте её. Один островок порядка станет центром кристаллизации для всего остального. Составить план на день. Ступор: «Столько всего, не знаю, за что хвататься...» Якорь: Завтрак . Что я буду делать сразу после завтрака? План начинает выстраиваться от этой точки. Помните игру, в которой люди бегут вокруг стула до тех пор, пока играет музыка, и как только музыка остановилась, нужно успеть занять стул? Одно самое быстрое и важное слово успело, выиграло в этой круговерти мыслей, а дальше все становится понятно. Для писателя, блогера или копирайтера страх первого предложения — профессиональная травма. Нужно быть гениальным с самой первой строчки. Это ложная установка. Сценарий: Нужно написать статью о важности сна. Ступор: «Какой эпиграф? Какой мощный hook? Какую статистику привести?» Якорь: Очищение . Что происходит: Вы не пишете заголовок или введение. Вы пишете про то, что больше всего не дает вам покоя — «... генеральная уборка мозга». Вы разрешаете себе писать плохо, просто чтобы продолжить фразу. Чаще всего именно из этого неидеального предложения и рождается живая, настоящая мысль, которая станет ядром текста. Первое предложение можно будет удалить, но оно выполнило свою работу — убило священный трепет перед пустым документом. Эта часть — моя попытка заглянуть за кулисы сознания. Неопределенность — это то, что лежит в основе моего восприятия прокрастинации. Перед началом работы наш разум находится в состоянии, которое я называю «ментальной гиперпозицией» . За этим термином скрывается простая и знакомая каждому реальность: в вашей голове одновременно и вперемешку существуют все возможные варианты начала, все связанные мысли, все страхи и все надежды. Как начать отчёт? С введения? С цифр? С выводов? С структуры? А может, сначала выпить кофе? А что, если я сделаю плохо? А вдруг тема скучная? Все эти мысли существуют не в логической последовательности, а все сразу , создавая когнитивный шум. Это и есть состояние «суперпозиции»: как электрон, который является не частицей в конкретной точке, а «облаком вероятностей», так и ваша мысль о задаче — это облако всех возможных путей её решения. Выбрать один — значит убить все остальные, и мозг сопротивляется этому «убийству» возможностей. Отсюда — паралич. Моё озарение пришло, когда я применил образы из квантовой физики к модели мышления. Прошу не считать рекламой — огромное мое человеческое спасибо Алексею Михайловичу Семихатову за популяризацию физики в интернете. Интервью с ним зародили во мне интерес к этой предметной области. Возможно, я совершенно не правильно интерпретировал то, о чем рассказывает Алексей Михайлович, но то, что я услышал, помогло мне выстроить применимую на практике модель мышления. Первая аналогия — Коллапс волновой функции. В квантовом мире акт измерения заставляет частицу «определиться» — перейти из состояния «облака вероятностей» в состояние «конкретной точки». Написание словаякоря — это и есть акт измерения для вашего собственного сознания . Вы смотрите на хаос своих мыслей и «фиксируете» одну из них. Вы проводите эксперимент: «Пусть темой будет вот это слово». И происходит чудо: волновая функция вашего ментального хаоса «коллапсирует» . Облако возможностей исчезает, и на его месте возникает одна конкретная, осязаемая мысльчастица, с которой можно работать. Вы не думаете, вы совершаете акт наблюдения , который рождает реальность текста. Вторая аналогия — Теория Большого Взрыва. До начала Вселенной существовала сингулярность — состояние бесконечной плотности и неопределённости, где не было ни пространства, ни времени. Затем — событие, которое дало толчок. После него началось расширение, формирование законов, звёзд, галактик. Ваш ум перед работой — это творческая сингулярность . В ней есть всё: бесконечный потенциал идей, но нет структуры, нет направления, нет «пространства» для работы. Словоякорь — это тот самый «творческий Большой Взрыв» . Минимальное, но критическое событие, которое нарушает симметрию хаоса. После него «вселенная» вашей работы начинает расширяться: из одного слова возникает фраза, из фразы — абзац, из абзацев — структура и законы повествования. Я не утверждаю, что в мозге буквально происходят квантовые процессы или Большие Взрывы. Но эти аналогии — это очень практичные образы для понимания работы сознания. Они объясняют, почему одно слово имеет такую силу: оно осуществляет фазовый переход системы из состояния «хаоспотенциал» в состояние «порядокреализация». GTD (Getting Things Done) и Mind Maps (ментальные карты) дают целый фреймворк, позволяющий пройти от зарождения идеи до её воплощения. Метод якоря на их фоне — это маленькая яхта на фоне круизного лайнера, но моя теория — это ментальные законы, которые могут объяснить, почему все они на плаву. Моя теория, как мне кажется, описывает их общий, глубочайший принцип: сознание нуждается в акте материализации (слове, списке, схеме), чтобы перейти от состояния потенциала к состоянию действия. «Якорь» просто делает этот принцип явным, обнажённым и доступным за секунду. Это и есть главный вывод. Мы часто думаем о творчестве как о чёмто спонтанном, что приходит свыше. Ждём музы. Метод якоря позволяет управлять процессом самостоятельно. Вы не должны ждать, когда хаос в вашей голове сам собой коллапсирует в гениальную мысль. Вы можете вызвать этот «коллапс» по своему желанию. Вы можете инициировать «творческий Большой Взрыв» в любой момент, и это можно назвать суверенитетом над собственным сознанием. Вы больше не беспомощны перед чистым листом. Вы знаете, что ступор — это не ваша слабость, а признак того, что энергия для работы уже есть. Вам осталось лишь направить её. Поэтому в следующий раз, когда окажетесь в состоянии «не могу начать», не корите себя. Не ждите озарения. Просто выполните простую программу: P.S. Далеко не всегда прокрастинация объясняется творческим ступором. Зачастую, по крайней мере лично у меня, это просто самая обычная лень. Зная это, я включаю в себе внутреннего пинателя, который орет — «встал, давай, начинай, быстро!», а потом чуть более спокойным голосом добавляет — «скажи, что бы ты сейчас сделал, если бы не был таким трусом и лентяем?».
8,663
https://habr.com/ru/companies/selectel/articles/975400/
habr.com
Привет, Хабр! Это снова Лера из Selectel . В прошлой статье я рассказала о двух технологиях в 3Dпечати. В комментариях попросили сделать разбор материалов — и вот он. Сегодня продолжим заниматься извращениями под видом технических текстов. Все сравнения и оценочные суждения — исключительно личное мнение. Экспертов в FDM, гуру печати, а также любителей активных обсуждений прошу принять приглашение на чашечку чая в комментариях, посплетничаем там вместе. Давайте же посмотрим на наших героев более детально Прежде чем погружаться в сравнения, давайте немного вспомним матчасть. Ведь чтобы сравнивать характеристики, неплохо хотя бы немного представлять, что это вообще такое. Погнали занудствовать. Я не буду упираться в научную терминологию и назову не все характеристики, а только те, которые, на мой взгляд, решают. Если я чтото пропустила в силу своей девичьей беспечности, буду ждать ваши дополнения в комментариях :) Внимание! Впереди вас ждет несколько разделов с водой объяснением базовых терминов. Если вы уже имеете солидный опыт в 3Dпечати, то оно вам, наверное, не оченьто и надо. Переходите по оглавлению к интересующему разделу. Но если хотите убедиться, что дальше мы точно будем говорить на одном языке, или если вы только начинаете свой путь в этом направлении, то рекомендую все же прочитать. Это моя вотчина и стихия, в лаборатории мехиспытаний и разрушений я провела слишком много времени, чтобы это не повлияло на мое мировоззрение. Кстати, тут важно понимать, что при испытании напечатанных образцов на результаты будет влиять вертикальноегоризонтальное расположение слоев. Еще будучи бедными и несчастными студентами, мы с однокурсниками получили задачу — сделать 10 образцов на группу: пять напечатать, расположив модель горизонтально, еще пять — вертикально. Мы разделили обязанности между двумя половинками мозга и одну благополучно выкинули. В итоге коллективно принесли 10 горизонтальных образцов. По невероятной случайности другая группа накосячила ничуть не меньше и принесла 10 вертикальных образцов. Такого наглядного и счастливого сочетания принципов «минус на минус дает плюс» и «никаких денег, только бартер» я еще долго не видела. Прочность на растяжение показывает, какое напряжение нужно приложить, чтобы материал порвался, прямо как ваши мечты. Вот пример такого испытания (испытывали и материал, и лаборанта): Модуль упругости определяет, насколько материал сопротивляется деформации. Высокий модуль означает, что материал жесткий (например, ABS), как взгляд научрука на мой диплом. Низкий — материал гибкий (тот же TPU), как мой ответ на незаданный вопрос «Что это за водища на 60 страниц была в предыдущей статье?». Ударная вязкость характеризует способность материала поглощать энергию удара без разрушения. Хрупкие материалы (PLA) ломаются, вязкие (Nylon, ABS) — деформируются и проявляют гибкий подход к работе. Вот пример того, как выглядят металлические образцы после испытания на ударную вязкость по Шарпи: Эластичность , ну или упругость , если угодно — это способность материала растягиваться и возвращаться к исходной форме. Из основных осталась твердость — это сопротивление материала местной поверхностной деформации. А тут както был сломан алмазный индентор о стальную пластину — мир науки полон магии и объяснений в стиле «наверное, был внутренний дефект». Температура печати — это тот диапазон градусов, при котором пластик милостиво соглашается расплавиться до пригодного для печати состояния, а не безвольно вытечь или застрять по дороге на свободу. Угадали — получите деталь. Не угадали — вот вам повод закатить глаза с мыслью «да блииин, опяять» и отправиться чистить экструдер или отдирать нечто аморфнонекрасивое от стола. Термостойкость — способность детали соблаговолить сохранять форму и механические свойства при длительном воздействии высоких температур, а не развалиться в ностальгии по былым временам. Усадка — суперпуперважный показатель, если вам важно попасть в размеры детали. Насколько материал сжимается при остывании? Известно только богу и производителю, однако вы будете на шаг впереди, если понимаете общую тенденцию по разным материалам. Например, высокая усадка у ABS — главная причина коробления и отслоения модели от стола. Гигроскопичность — это способность впитывать влагу из воздуха и становиться неприлично непригодным для печати. Высокая гигроскопичность заставит вас плакать и впитает ваши слезы, так что обращайте внимание на этот показатель при хранении катушек, чтобы избежать расплаты за беспечность и переплаты изза покупки новых расходников. В целом лучше хранить филаменты в герметичных контейнерах или вакуумных пакетах с силикагелем, а если есть особый душевный порыв или производственная необходимость, то можно расщедриться на скромную сушку или даже сушильный шкаф. Устойчивость к химическим воздействиям — способность не растворяться в моменте, как баунти под действием растворителей, масел, кислот, щелочей. Например, ABS растворяется в ацетоне, чем радует печатников, которым не нужна химическая стойкость, но важно качество поверхности у детали. Ацетоном можно выравнивать слоистость и неровности. Вот такой пример с 3DBenchy: УФстойкость определяет, можно ли материалу лететь в Египет без SPF или не стоит (кстати, подумайте дважды и вы). Ультрафиолет способствует разрушению и выцветанию под воздействием солнечного света (ASA обладает высокой УФстойкостью, а ABS — низкой). Биоразлагаемость , или способность думать о будущем подрастающего поколения — это способность материала разлагаться. И это главное преимущество PLA. Адгезия к столу — магия, определяющая, останется ли ваш первый слой мирно лежать, или же он решит отправиться в самостоятельное путешествие по комнате, завернувшись в коврик из соплей пластика. Идеальная адгезия — когда после печати вы с риском для детали и стола пытаетесь ее отодрать, так что тут важен баланс. Существует большое количество разнообразных лайфхаков и средств по улучшению адгезии, но это уже совсем другая история. Если адгезия слишком слабая, то деталь просто оторвется вместе с вашими последними нервными клетками и через несколько часов печати вы получите примерно следующее: Адгезия слоев — трогательная способность слоев пластика терпеть друг друга, ей не научит ни один тимбилдинг. При низкой адгезии слои ведут себя как соседи в коммуналке: вроде рядом, но при первой же нагрузке дружно кричат «Я его не выношу! А ну отойди на три метра, чернь!». Стрингинг (ну или «волосы») — это склонность к образованию тонких нитей пластика между деталями модели, характерная для PETG. В целом это влияет в основном на эстетику (хотя большое количество таких волосинок может свидетельствовать о неправильном выборе температуры печати) и фиксится обработкой горячим воздухом (зажигалкой или тепловым пистолетом). В тяжелых случаях — безжалостной механической постобработкой с использованием кусачек, канцелярского ножа и прочего холодного оружия. В качестве завершающего этапа можно подшлифовать пострадавшие зоны, чтобы повысить качество поверхности. Вот пример ситуации, где нескольких ошибок при печати привели к стремительному выпадению волос у автора и наращиванию волос у напечатанной детали (не делайте так, а если сделали — подумайте о своем поведении). Кстати, пластиковые волосы от такой детали будут повсюду после постобработки. Необходимость в охлаждении определяет, насколько материал нуждается в обдуве вентилятором для формирования четких деталей. Если вы долго не можете понять, что не так с печатью, возможно, проблема именно в нем. Угадать с режимом обдува — ключ к тому, чтобы деталь не выглядела как подтаявшее мороженое. Прозрачность . Просто знайте, что некоторые материалы (PETG, PC) можно печатать с высокой степенью прозрачности. Пищевая безопасность . Надеюсь, вам не придет в голову есть то, что напечатано на 3Dпринтере, но все равно помните о теоретической возможности контакта изделия с пищей. Здесь важно понимать, что даже пищевые филаменты небезопасны для еды изза микропор в отпечатке, где размножаются бактерии. Абразивность — это способность материала изнашивать сопло принтера. Чистые пластики не абразивны, но материалы с добавками (углеволокно, стекловолокно, металл) требуют стойкого сопла, поскольку силу трения при подаче материала никто не отменял, а трение об абразив — то еще удовольствие. О, тут еще стоит отметить, что у некоторых пластиков может быть непостоянный диаметр прутка, а вы об этом узнаете в самый неподходящий момент. На фото пример сравнения толщины филамента из одной катушки Ну, ситуация находится исключительно в пределах погрешности)) Вроде бы справились! Минута молчания в честь павших во время прочтения товарищей (или тех, кто уже строчит комментарий, что все это нейрослоп, потому что здесь простое перечисление терминов и длинные тире). Но дуолинго снова гордится вами, ибо такого рвения и тяги к знаниям он не видел с прошлой статьи про 3Dпечать. Снижаем цены на выделенные серверы в реальном времени Успейте арендовать со скидкой до 35%, пока лот не ушел другому. Конечно, лирика — это чудесно, но попробуем свести все это в более структурированный вид. Материалы важно выбирать с учетом назначения, опыта и оборудования. Ниже я попробовала хоть както систематизировать свои знания, но буду рада, если в комментариях обсудим нюансы и упущения моей скромной классификации. Немного подробностей для пытливых умов, которым недостаточно поверхностного анализа. Чтобы наглядно сравнить материалы, посмотрим на них вплотную. Тут нет спецматериалов или материалов с присадками, поскольку это для самых упоротых любознательных, у которых уровень С1 в языке 3Dпечати, а мы пока на первых уроках. Пищевая безопасность достигается только при использовании нержавеющего сопла, специальных настроек и последующей обработки модели. Общая рекомендация — не ешьте то, что печатаете. И вообще постарайтесь, чтобы изделия не контактировали с вашей едой. Можно взглянуть на эту классификацию более детальным образом. Если согласны, то погнали душнить дальше. PLA — без преувеличения, самый популярный материал в мире любительской 3Dпечати. Это Фродо вашей катушки. Скромный, предсказуемый, дружит со всеми. Он не создан для суровых битв, готов броситься грудью на амбразуру первых проб 3Dпечати, но как станет тяжко, Сэм его понесетну или ктонибудь еще. Разновидности: PLA, Silk PLA (шелковый, с блеском), Wood PLA (с древесными волокнами), GlowintheDark (светящийся), Metal PLA (с металлической пудрой) и многие другие. PLA (или «усиленный» PLA) часто обладает повышенной прочностью и ударной вязкостью. PETG — это компромисс между простотой PLA и прочностью ABS, просто Сэм, золотая середина Братства. Он не мямля и не воин, он просто делает свою работу. Он тот, на кого можно положиться в 95% ситуаций. Это практичный малый, который доведет ваш проект до Мордора, даже если останется последним невыгоревшим сотрудником. Также есть разные модификации с добавлением присадок. К примеру, PETGE и PETGCF — это PETG с добавками, улучшающими текучесть, или армированный углеволокном для большей жесткости. ABS — это Арагорн. Настоящий корольдолгожитель, сильный, прошедший через огонь и воду, с немного сложным характером. Чтобы раскрыть его потенциал, нужно принять его со всеми сложностями: он требует особых условий (закрытый корпус), а его пары выдают в нем небольшого токсика. Однако, если вы докажете свою пригодность, он станет вашим самым мощным союзником. Лучшее солнышко этой вселенной — конечно, ABS. Модифицированный ABS с уменьшенной усадкой и улучшенной ударной вязкостью. Nylon — это Гимли. Невероятно прочный, просто так не умрет, идеальный воин для битвы (шестерни, износостойкие детали). Но у него есть фатальная слабость в виде дикой гигроскопичности, а все знают, что гномы не созданы для воды. У него есть интересные разновидности: Nylon 6, Nylon 66, Nylon 618, Nylon 645. В целом еще и часто армируются углеволокном (Nylon CF) или стекловолокном для увеличения жесткости и термостойкости. TPU — это гибкий и эластичный материал, открывающий класс «мягких» 3Dмоделей. Другими словами, это Леголас. Невероятно гибкий, эластичный и изящный. Он движется с плавностью, недоступной другим. Печать им требует правильного оборудования (прямой экструдер), иначе его вольная природа возьмет верх и вы получите ботинком в затылок (филамент может забиться в экструдере). PC — это Боромир. Чрезвычайно прочный и термостойкий. Работать с ним — все равно что спорить с самим тестостероном: требуется невероятная стойкость, экстремальные условия (высокие температуры) и закрытый корпус, чтобы он на Кольцо Власти не поглядывал. Если вы ему это не предоставите, то от недовольства он покоробится и умрет смертью храбрых. CF и GF — это Пин и Мэри. Сами по себе они милые ребята, с которыми не всегда здороваются за руку, но в паре с более серьезными материалами они раскрывают их скрытый потенциал, делая их жестче и прочнее. Углеволокно значительно увеличивает жесткость и термостойкость базового пластика, снижает усадку и коробление. Это более эффективный, но и более абразивный вариант, которому требуется твердосплавное или стальное сопло. Стекловолокно же, в свою очередь, увеличивает прочность и жесткость, менее абразивно, чем CF, но и менее эффективно. Это не самостоятельные материалы, а композиты на основе нейлона, PLA, PETG или поликарбоната. А вот примеры материалов: PLACF, NylonCF (самый популярный вариант), PCCF. Специальные материалы — это Гендальф. Они не для обычных битв, а для решения невозможных задач магическими средствами. Появляются, когда хотят и где хотят, тяжело найти, легко потерять, невозможно забыть. PVA (Polyvinyl Alcohol): водорастворимый материалподдержка. Используется в двухэкструдерных принтерах для печати сложных поддержек, которые затем просто растворяются в воде. HIPS (High Impact Polystyrene): похож на ABS по свойствам, но растворяется в лимонене (лимонном масле). Также используется как поддержка для ABS. Flexматериалы (TPE, TPC): более мягкие и эластичные аналоги TPU. ASA (Acrylonitrile Styrene Acrylate): похож на ABS по прочности и термостойкости, но обладает высокой устойчивостью к УФизлучению и погодным условиям. Идеален для деталей, постоянно находящихся на улице. Опять куча воды? Хорошохорошо, больше таблиц повелителям таблиц. Рекомендации по печати ( в общем случае у каждого производителя есть свои таблицы с этими данными, которые могут немного «плавать») Идеален для новичков, не требует замка или корпуса. Хранить в сухости. Сушка перед печатью обязательна. Требует настройки ретракта против стрингинга. Обязателен закрытый корпус и вентиляция. Использовать клей или ABSсок для адгезии. Функциональные детали: шестерни, втулки, защелки; Обязательна сушка. Требует закрытого корпуса и спец. покрытия стола (клей ПВА, каптон). Нужен прямой экструдер. Низкая скорость печати, ретракт отключен или минимален. Высоконагруженные детали для авто и авиамоделирования, функциональные прототипы с экстремальной прочностью. Экстремальные условия. Обязателен закрытый корпус, стойкое сопло (сталь), сухой филамент. PVA: водорастворимые поддержки для сложных моделей с PLAPETG. HIPS: поддержки для ABS, растворяемые в лимонене. Требуют второго экструдера. Хранить в вакууме. Быстро впитывают влагу. Армирование Nylon, PLA, PETG для повышения жесткости и термостойкости. Жесткие и легкие детали для дронов, робототехники. Сопло: как у базового материала, но обязательно стальное или твердосплавное. Материал сильно абразивен, быстро изнашивает латунные сопла. Повышает хрупкость. Армирование PLA, PETG для увеличения прочности и жесткости. Сопло: как у базового материала, рекомендуется стойкое сопло. Менее абразивный материал, чем CFармирование, но также требует внимания к соплу. После всего прочитанного у вас в голове сейчас каша из температур, усадки и обещаний «сверхпрочности». Давайте расставим точки над «е» в бытовой 3Dпечати на начальных этапах. Сначала вы будете печатать PLA. Это как первая любовь. Мило, пахнет печеньем, но любое столкновение с реальностью заканчивается трещиной. Потом вы попробуете ABS. Это как брак с истеричкой. Мощно, страстно, но пахнет токсичными отношениями и требует отдельной комнаты. В итоге вы, скорее всего, осядете на PETG. Это брак по расчету. Надежно, предсказуемо, не пахнет. Иногда оставляет «сопли», зато не сводит с ума скандалами и требованиями. Nylon — это пластикинтроверт. Он так боится воды, что готов рассыпаться от одного вида ваших слез. TPU — пластикакробат. Если ваш экструдер не прямого типа, он устроит там цирк, а вы будете главным клоуном. PC — пластиксамоубийца. Он коробится просто от плохого настроения, так что если вы только планируете начать заниматься 3Dпечатью, даже не смотрите на него. Храните филамент так, будто от этого зависит исход Третьей мировой. Особенно если это Nylon (купите себе сушильный шкаф). Закрытый корпус — это не опция, а страховка от психического расстройства. 90% проблем решаются калибровкой стола и сушкой филамента. Остальные 10% не решаются. Через месяц вы поймете, что можно было сразу купить PETG и сэкономить 5 000 рублей на нервных клетках, ведь его вполне достаточно, чтобы печатать гибких дракончиков и насадки на зубную щетку. Но для получения полного спектра эмоций вам надо пройти квест с орками, Мордором , эльфами и внезапной смертью Боромира в виде расслоившейся шестеренки. Теперь идите и, в отличие от меня, напечатайте чтонибудь стоящее.
17,314
https://habr.com/ru/companies/otus/articles/971098/
habr.com
Бывало, открываешь десяток терминалов, чтобы мониторить систему: в одном htop , в другом делаешь tail логов, в третьем запускаешь отладку. Через пару минут такой работы голова идет кругом от мельтешащих окон. Для того, чтобы както разобраться с этим, помогут терминальные мультиплексоры, старый добрый GNU Screen и его более крутой товарищ tmux. Если кратко, и tmux, и GNU Screen позволяют в одном терминале запускать несколько «окон» (на самом деле псевдотерминалов) и свободно между ними переключаться. Можно отсоединяться ( detach ) от такой сессии и потом снова подключаться ( attach ), даже по SSH, все запущенные процессы продолжают работать в фоне. Tmux считается более современным и удобным, у него богатый функционал, настраиваемый интерфейс, да и скриптовать его проще. Screen тоже умеет в автоматизацию, но функционала там поменьше. Я буду в основном говорить про tmux, но замечу коегде и про Screen для полноты картины. Начнем с азов: как запустить новую tmuxсессию не вручную через интерактивный интерфейс, а прямо командой. Обычно мы пишем в терминале tmux , и он нас перекидывает внутрь новой сессии. Но для скриптов такой вариант не подойдет, скрипт зависнет, ожидая, пока вы закончите работу в tmux. Нужно запускать сессию в фоне. Для этого у команды tmux newsession есть специальный флаг: Эта команда запустит новую сессию tmux под именем mysession и сразу ее отсоединит . Ключ d ( detach ) и делает все что нужно, tmux не захватывает ваш текущий терминал. Скрипт пойдет выполняться дальше, а сессия будет жить сама по себе в фоне. Флаг s mysession задает имя сессии. Вы можете назвать ее как угодно. Если имя не указать, tmux придумает чтото по умолчанию (часто просто номер), но лучше дать осмысленное. После выполнения tmux newsession d s mysession у нас есть фоновая tmuxсессия. В ней, по дефолту, создано одно окно с шеллом (скорее всего, bash) и оно ждет ваших команд. Как подать команду в эту свежесозданную сессию? Есть несколько подходов: Запустить нужную программу сразу при создании сессии (tmux позволяет указать команду в кавычках прямо в команде newsession ). Или запустить команду позже, отправив текст на ввод с помощью tmux sendkeys . Самый простой способ при создании новой сессии сразу сказать tmux, что в первом окне надо выполнить конкретную программу. Делается это так, после параметров указывается команда в кавычках: Запускаем сессию mysession и сразу в первом окне этой сессии выполняем утилиту htop . Tmux создаст окно, запустит там htop и оставит его работать. Если сейчас подключиться к сессии командой tmux attach t mysession , мы прямо увидим интерфейс htop. Однако подождите, не будем пока аттачиться, мы же еще хотим открыть другие окна и панели, все автоматом! Одна tmuxсессия может содержать несколько окон, а окно делиться на панели. Нам по задаче нужно три параллельных экрана: htop, логи и просто шелл. В терминах tmux это либо три окна, либо одно окно с тремя панелями. В примере явно указано «3 окна», значит сделаем три отдельных окна в рамках одной сессии. У нас уже есть одно окно (с htop). Создадим второе для логов. Используем команду: Разберем: newwindow , команда tmux для создания нового окна в существующей сессии. Ключ t mysession: говорит создать окно в сессии mysession. Двоеточие тут отделяет имя сессии от имени или номера окна (который мы не указали, поэтому tmux присвоит следующий номер). Флаг n logs задает имя окна (оно же будет отображаться в статусной строке tmux). По дефолту новое окно откроется с вашим shell и остановится на приглашении командной строки. Нам же нужно, чтобы там сразу начали отображаться логи. Можно сразу запустить tail f при создании окна, аналогично тому, как мы сделали с htop: Предположим, в качестве примера хочется смотреть системный лог varlogsyslog . Вы подставьте сюда свой путь или команду, если нужно чтото специфическое. Осталось третье окно, обычный шелл. Его можно создать тоже командой: Здесь не передаем команду в кавычках, поэтому tmux просто откроет пустой bash с промптом. Окно называем «shell» для ясности, хотя можно не именовать, тогда оно получит название по умолчанию (обычно на основе запущенной программы, в данном случае отобразилось бы «bash»). Итак, в скрипте выполнили три команды: newsession и два раза newwindow . Теперь наша сессия mysession уже имеет три окна. Причем: Окно 1 (второе) запущено с tail f varlogsyslog и отображает лог. Нумерация окон начинается с 0 в tmux, имейте в виду. Но имена задали понятные, и можно дальше оперировать именами, либо номерами, как удобнее. Мы научились стартовать окна сразу с нужными программами. А что если нужно в уже существующую панель или окно отправить команду? Например, вы хотите разбить окно на две панели и во вторую панель передать какуюто команду уже после создания. Тут пригодятся tmux splitwindow и tmux sendkeys . splitwindow делит текущее окно на две панели (по горизонтали или вертикали, как скажете). Но когда мы работаем из скрипта, нужно указать явно, какое окно делить. По умолчанию, если просто вызвать tmux splitwindow , tmux будет считать текущим последнее активное окнопанель. В скрипте это может быть неочевидно. Лучше явно задать через t . Предположим, вместо отдельного окна для логов я захотел сделать панель рядом с htop (в одном окне). Можно так и сделать: Здесь флаг t mysession:0 указывает: «разделить окно номер 0 (наш htop)». v означает вертикальный сплит (панели одна под другой; есть еще h для горизонтального разделения). И сразу после этих флагов я передал команду tail f varlogsyslog — tmux запустит ее во второй панели. В итоге окно 0 разделилось на две панели: верхняя с htop , нижняя с логом. Оба вида информации на одном экране. Но вернемся к sendkeys . Эта команда нужна, если вы хотите послать символьный ввод в уже запущенную программу или просто в пустой шелл. Она буквально имитирует нажатие клавиш в целевой панели. Например, можно отправить команду в панель, где сейчас открыт bash: Здесь t mysession:2 означает «послать ввод в окно 2 сессии mysession» (в нашем случае окно 2 — это тот самый пустой shell). Далее в кавычках идет текст ls la , а после кавычек указано Cm . Комбинация Cm , способ послать «Enter» (Carriage Return) в tmux. То есть мы отсылаем строку ls la и затем нажатие Enter. В результате в том окне 2 выполнится ls la и мы получим список файлов прямо там. Фокус в том, что tmux sendkeys не выводит результат вам напрямую. Он просто нажимает клавиши в той сессии. Результат команды останется в окне tmux. Потом, когда вы подключитесь, вы увидите, что в окне 2 уже выполнена команда ls la и выведен список файлов. sendkeys удобно использовать, чтобы подготовить окружение: например, открыть несколько панелей и в каждой уже запустить нужные утилиты, скрипты или команды. Фактически вы программируете последовательность действий, которую обычно руками бы делали после открытия tmux. В t можно указывать не только окно, но и конкретную панель, если их несколько. Синтаксис вида session:window.pane . Например, mysession:0.1 первая панель окна 0. Нумерация панелей идет с 0. В простых случаях хватает указать окно, тогда если там одна панель (0), команды пойдут туда. После того как скрипт настроил все окна, хорошо бы увидеть результат своими глазами. Тут помогает tmux attach . Чтобы не мешать работе скрипта, мы все сессии запускали с d , то есть без аттача. Теперь можно подключиться вручную: Или коротко tmux a t mysession . Вы окажетесь внутри tmux, увидите первое окнопанель. Переключаться между окнами CtrlB , а затем номер окна (0, 1, 2) или CtrlB N CtrlB P (NextPrevious). Выйти из tmux, не убивая сессию, CtrlB D (detach). Сессия при этом продолжит работать в фоне. Если запуск происходил в скрипте, можно, в принципе, сделать так, чтобы скрипт сам подключил вас, выполнив в конце tmux attach . Но есть нюанс, если скрипт был запущен по SSH и выполнил attach, он может захватить ваше подключение. Соберем все вместе. Приведу пример простого Bashскрипта, который поднимает описанную выше сессию с тремя окнами: Вот такой сценарий. Комментариями обозначил каждый шаг. Шаг 4 необязательный, он просто демонстрирует sendkeys . В жизни скорее всего вы либо сразу запускаете процессы при создании окон, либо заходите внутрь tmux и вводите команды руками. Обратите внимание на кавычки и переменные: "SESSION":2 разворачивается в mysession:2 . В bash лучше брать переменные в кавычки на случай пробелов (в именах сессий обычно нет пробелов, но это хорошая привычка). Этот скрипт можно сохранить, например, как start_env.sh , дать ему права на выполнение ( chmod x start_env.sh ) и запускать, когда нужно настроить такое окружение. При запуске скрипт быстро пролетит и либо вернет вас в шелл (если вы не делали attach внутри), либо откроет tmuxсессию. Если вы включили автоattach (шаг 5), то скрипт фактически передаст вам управление внутри tmux. По выходу из tmux (detach или закрытие сессии) вы вернетесь туда, откуда скрипт запускали. Не могу не упомянуть несколько слов о GNU Screen, ведь он был популярен задолго до tmux. Если по какимто причинам вам нужен именно Screen, знайте: у него тоже есть похожие возможности. сделает примерно то же, что и tmux newsession d ... htop — запустит screenсессию с именем session_name и программой htop внутри, отсоединившись сразу ( d m означает «detach и запустить»). Создать новое окно (в терминологии Screen новое окно, по сути как tmuxокно) можно так: Отправили команду уже в запущенную сессию (S выбирает сессию по имени). Ключ X говорит Screen выполнить последующую команду управления. Команда screen (в контексте X ) добавляет новое окно внутри сессии. В итоге появится второе окно с tail . Аналог sendkeys в Screen — команда stuff . Она посылает текст в выбранное окно: Здесь p 0 выбирает окно 0, и мы шлем туда строку ls la перевод строки ( n ). Учтите: если запускать Screen в фоне без команды, сразу после dmS , то по умолчанию не будет активного окна для stuff , и команда может никуда не отправиться. Поэтому либо запускайте сессию с какимто процессом (например, bash ), либо сперва создайте окно через screen X screen . В целом Screen скриптовать можно, но синтаксис, как видите, более громоздкий. И функциональности меньше (например, делить окно на панели Screen не умеет, только отдельные окна). В новых проектах tmux почти полностью его вытеснил. Однако хорошо понимать оба инструмента: вдруг придется работать на сервере, где доступен только Screen. Напоследок полезные команды для управления tmuxсессиями через CLI: tmux ls (или tmux listsessions ) показывает список запущенных tmuxсессий. Полезно в скрипте, чтобы проверить, не запущена ли уже наша сессия, и не плодить дублей. tmux attach t name подключиться к существующей сессии. Если вы в скрипте не делаете автоattach, можно просто вывести пользователю сообщение, мол «сессия запущена, подключитесь командой tmux attach t mysession .» tmux detach s name принудительно отсоединить сессию name от всех клиентов. Бывает нужно в автоматизации, если, скажем, пользователь забыл отсоединиться, а скрипт должен продолжить чтото делать. Если же клиентов нет, команда вернет ошибку «no client found». Честно говоря, без особой надобности я ее не использую. tmux killsession t name завершить указанную сессию и убить все ее окнапроцессы. Аккуратнее — может быть полезно в скриптах «чистки» или перезапуска окружения, когда перед запуском новой сессии нужно убрать старую, если вдруг висит. У Screen аналоги следующие: screen ls , screen r name (reattach к сессии), screen S name X quit (выйти из сессии). Попробуйте написать свой скрипт под свои задачи, например, открывать сразу сессию для разработки: в одном окне редактор, в другом сервер на npm start , в третьем мониторинг логов. Фантазия не ограничена, а скрипты терпеливо выполнят любую задачу. Tmux и Screen дают удобный поверхностный контроль, но настоящая эффективность приходит, когда сама система предсказуемо ведёт себя под нагрузкой. Если хочется глубже понять устройство Linuxдистрибутивов, сетевые стековые тонкости и приёмы повышения производительности, это можно системно отработать на продвинутом курсе по Linuxадминистрированию . Для знакомства с форматом обучения и экспертами приходите на бесплатные демоуроки: 9 декабря в 20:00. Основы LVM: гибкое управление дисковым пространством в Linux. Записаться 18 декабря в 20:00. Docker в продакшене: сборка образов, безопасность и CICD. Записаться
12,310
https://habr.com/ru/companies/hstx/articles/973628/
habr.com
Привет Хабр! Если вам тоже доводилось разбирать незнакомый проект, сопровождать прод или помогать QA, вы знаете, как быстро начинаешь ненавидеть однообразные команды etcdctl: копировать ключ, вбивать get, ловить в терминале многострочные значения, скроллить историю Особенно если ключей сотни, а половина из них — конфиги или JSONы на несколько экранов. Мне хотелось чегото попроще: запустил один бинарь в терминале и спокойно ходишь по дереву ключей etcd , как по файловой системе, подобно mc . Без браузера, без копипаста, с нормальным просмотром и редактированием многострочных значений. Так появился etcdwalker . Под катом расскажу, как он устроен, почему в etcd v2 внезапно пропадают ключи, которые начинаются с подчеркивания, как их всётаки увидеть, зачем понадобилась инъекция узлов, и как решить боль с большими многострочными ключами, например JSON или yaml. А также покажу, как этот инструмент помогает разбираться с локами, которые создает python библиотека для работы c etcd. Если вы хоть раз пробовали разгрести чужое хранилище в etcd, то поймёте, почему без подобного инструмента жить уже не хочется. etcdwalker — это консольное TUIприложение (на базе tviewtcell ), которое: подключается к etcd v2 и v3 (можно явно выбрать протокол или работать в режиме auto ); справа — панель с деталями (полное имя, Cluster ID, значение); редактировать значения, в том числе в полноэкранном многстрочном редакторе ; И самое важное — утилиту можно просто запустить в терминале и забыть про etcdctl для ежедневной рутины. А заодно, если вы так же любите TUI, как автор — это просто приятно эстетически :) model — работа с etcd (v2 и v3), минимальный API: ( Ls, Get, Set, MkDir, Del, DelDir, RenameDir ) хранит текущее каталогоподобное состояние currentDir; решает магические кейсы например, с ключами, начинающимися с _ При запуске в хедере показывается, к какому хосту и порту утилита подключилась и какой протокол реально используется — v2 или v3. Одна из причин написать отдельный инструмент — многострочные ключи . В реальных проектах в etcd живут: Через etcdctl это читать и править — мучение: терминал ломает форматирование, не видно границы строк, любой промах — снова вбивать команду. при выборе файла (ключа без IsDir ) в правой панели сразу видно полное значение целиком; многострочный полноэкранный редактор (горячая клавиша CtrlE , если это файл): открывается TextArea и можно спокойно править большие тексты. После сохранения значение отправляется через model.Set , TUI обновляется, курсор остается на нужном ключе, а детальная панель тут же показывает новое значение. Всё это работает и для обычных ключей, и для особенных вроде тех, что начинаются с _ . В etcd v2 есть неприятный кейс: ключи, которые находятся на корне и начинаются с подчеркивания, не всегда попадают в привычный обзор дерева. То есть ключ _test существует, значение "test" , всё ок. То есть etcd сообщает, что это каталог ( "dir": true ), но детей не показывает — ни foo , ни _test , ничего. В итоге TUI, который просто обходит дерево через ls("") , вообще не видит _test и подобных ключей. В контроллере есть механизм инъекции узлов — injectNode . И есть отдельная команда Jump ( CtrlJ ), которая: Берет введенный путь (абсолютный или относительный). утилита определяет это директория (набор ключей с общим префиксом) или файл; создаёт Node и подкладывает его в кеш injected для родительской папки, то есть _test после Jump реально вклеивается в список корня ; если это директория — переключает текущий каталог на неё; если это файл — переходит в родительский каталог и ставит курсор на этот ключ. При последующих обновлениях списка ( updateList ) контроллер: затем поверх него сливает инъектированные узлы; если ключ уже есть в ответе сервера, отдается приоритет реальному варианту. даже если etcd v2 не показывает _test в дереве, один раз прыгнув к нему через Jump — вы подсветите его для TUI ; в списке такой ключ будет отображаться как обычный файл, который дополнительно подсвечивается жёлтым , т.к. colorize специально крастит всё, что начинается с _ . _test — абсолютный путь, или _test — относительный от текущего каталога. отображает _test среди других ключей (если они есть); показывает в правой панели полное значение и метаданные. Многие библиотеки поверх etcd используют скрытые ключи (часто с _ в имени) для реализации распределённых локов. Типичный пример — Pythonклиент: Внутри EtcdLock создаёт служебный ключ в etcd (часто с префиксом , типа locks... ), который: но при отладке или расследовании проблем очень хочется видеть: С обычным обходом v2keys?recursivetrue такие ключи легко потерять — как мы видели на примере _test . вы просто знаете (или подозреваете), где живёт лок, например _locksuser123 или _test_lock ; жмёте CtrlJ , вписываете путь и попадаете именно туда; ключ инъектируется в дерево и становится видимым в TUI; дальше можно смотреть значение, при необходимости удалять зависшие локи и наблюдать, как они появляются и исчезают в реальном времени. Это сильно упрощает анализ и отладку распределённых локов , особенно в QAстейджинг окружениях, где руками приходится разбирать странные состояния. На реальных кластерах etcd в одном уровне (в одном префиксе) легко может быть сотни ключей. Листать их стрелками — такое себе. В etcdwalker для этого есть несколько фич: Вводите префикс имени (поиск регистронезависимый). Работает автодополнение то есть, показываются только те имена, которые начинаются с введённой строкой. По Enter курсор прыгает на найденный ключ в текущем каталоге. Это удобно, когда, например, на уровне services куча разных сервисов, и нужно быстро найти servicespayment или servicesauth . Если вы знаете путь целиком или частично — используете Jump: для директории удобно добавить на конец, чтобы утилита требовала именно папку. Jump работает поверх Get , а не Ls , поэтому может найти ключи, которых нет в обычном дереве (тот самый кейс с _ ). при переходе вниз запоминает позицию в текущем каталоге; при возвращении вверх [..] или Backspace восстанавливает её. Это даёт эффект как в нормальном файловом менеджере: вернувшись на уровень выше, вы попадаете ровно туда же , а не в начало списка. Ключи, начинающиеся с _, в списке подсвечиваются жёлтым, чтобы их легко было визуально отделить от остальных — это удобно для тех самых скрытых служебных сущностей (локи, системные ключи и т.п.). Поскольку автор любит TUI, интерфейс сделан максимально клавиатурным. etcdwalker появился из очень практичной мотивации: лень и скука постоянно писать команды etcdctl ради банального просмотра и правки значений; боль с многострочными ключами , где обычный терминал не даёт нормального UX; неудобство работы со скрытыми ключами (особенно теми, что начинаются с _), которых не видно в стандартном дереве etcd v2, но которые критичны для локов и служебной логики. Теперь всё это закрывается одним TUIинструментом, который: позволяет видеть и трогать невидимые _ ключи через Jump и механизм инъекции. Если вы много ковыряетесь в конфигурации через etcd, копаетесь в чужих проектах или помогаете QA — такой TUIпроводник очень быстро становится чемто, что просто всегда хочется иметь под рукой. Ну и это opensource и PR приветствуется
7,173
https://habr.com/ru/articles/974748/
habr.com
В середине 2025 года приобрел себе для работы ноутбук Lenovo Thinkbook 14. После выхода моделей gptoss протестировал локальный инференс младшей модели и результаты для меня были весьма удивительными. Затем я провел тесты еще на двух своих ноутбуках, а совсем недавно на работе собрал заинтересованных ребят и появились результаты еще 5 ноутбуков. Если коротко локальный инференс доступнее чем кажется , а детали в статье. Также я снял видео на эту тему. Если не терпится узнать результаты, то листайте до Результаты тестов или тык сюда . LM Studio я выбрал потому что это быстрее и проще всего для протестировать, хотя есть приемы увеличения скорости на llama.cpp , и уж тем более инференс может быть быстрее на vllm . Однако, на большинстве ноутбуков, до которых мне както удалось добраться стояла Windows, и чтобы не нарушать окружение пользователя я решил остановится на LM Studio. Другие варианты ускорения инференса на CPU вроде vllm и OpenVINO или инференс на бюджетных Intel Arc типа AIPlayground ( только Windows ), ipexllmи , OpenArc я не затрагиваю в данной статье, потому что мне еще предстоит с ними познакомиться. А если вы знаете другие инструменты для ускорения инференса, то сообщите об этом в комментариях. Для тестов была выбрана модель gptoss20b и не спроста. Уже несколько месяцев я тестирую ее в своей работе DevOpsинженера ( инференс на RTX 3090 TI ) и во многих вопросах она хорошо себя показывает, здесь на первых минутах видео показываю часть чатов с моими вопросами. Тем более это MoE модель с ограниченным набором работающих экспертов, что делает инференс на наших подопытных ноутбуках еще быстрее. К тому же 20b более доступна для ноутбуков где есть ОЗУ от 32гб, чего не скажешь про ее старшую модель на 120b , которую мне со скрипом удалось запустить на 64гб ОЗУ. Так что мы будем рассматривать только доступный вариант на 20b . gptoss20b не единственная крупная модель, которая доступна на ноубуках для локального инференса. Например, можно посмотреть qwen330ba3bthinking2507 , Qwen3VL30BA3BThinking , ernie4.521ba3b . Но у меня еще руки не дошли до таких плотных тестов в работе как gptoss20b . В качестве запросов для быстрого тестирования я использую 2 варианта: Расскажи о себе самый простой, здесь ожидается быстрый инференс, и этот результат мы можем видеть на коротких чатах Напиши полный код приложения рендера треугольника при помощи vulkan на go этот промпт подразумевает длинный ответ и здесь уже скорость генерации ответа ниже, но это показывает инференс на более сложных промптах, которые более вероятны в моей повседневности Здесь все просто: если есть дискретная видеокарта то используем часть оптимизации из этой статьи : выкручиваем использование GPU на максимум (1) и включаем выгрузку экспертных слоев на CPU (3), еще включаем выгрузку KV на GPU (2). Если нет видеокарты, то не выгружаем :) Скрины обоих вариантов загрузки ( с видеокартой и без видеокарты ) на скриншоте: Там где можно было задействовать видеокарту, как было указано выше, она была задействована. В этой таблице краткие характеристики ноутбуков, которые мне самому удалось пощупать, и скорость генерации ответа на второйтяжелый запрос: А в этой таблице результаты тестирования на ноутбуках моих коллег, здесь уже различные запросы: А вот так выглядит скорость 12 токенов в секунду: Лично для меня эти тесты были открытием. Я помню то время когда локальный инференс болееменее крупных и плотных моделей был на уровне нескольких токенов в секунду, можно было отправлять запрос и идти по своим делам. А здесь на MoE модели мы получаем в среднем 13 токенов в секунду , что вполне сопоставимо со скоростью вдумчивого чтения. Главный вывод, который я вынес для себя: Локальный ИИ стал более доступным для потребительского бюджетного сегмента. Конечно, здесь может быть много нюансов, например, инференс на ноутбуках это не то же самое что на кластере из нескольких RTX 3090, где цена скорость и качество будут совсем на другом уровне, это тоже локальный инференс на потребительском оборудовании. Например на таком: Сам я не использую ноутбук для инференса, потому что все еще медленно. Но уже быстрее и умнее чем было. В своем Телеграмканале я иногда пишу про исследования локального инференса в своей домашней лаборатории.
4,236
https://habr.com/ru/articles/974126/
habr.com
Эффективная пагинация — не просто удобство, а необходимость. Анализ нагрузочного тестирования, метрик системы и планов выполнения показывает, что выбор неправильного метода может замедлить приложение в 15 раз, создавая катастрофическую нагрузку на СУБД. Одни методы работают с молниеносной скоростью, а другие превращаются в «убийц производительности». Сравнить методы пагинации получения первой страницы размером 100 строк для SQLзапроса, позволяющего получить информацию для анализа: Тестовая база данных: "Демобаза 2.0" (большой размер, сложная схема) Условия тестирования: параллельная нагрузка, ресурсоемкий запрос Метод ROW_NUMBER показал кардинально низкую производительность. Зависимость производительности от метода пагинации, для методов LIMITFETCHOFFSET практически отсутствует. Выбирают случайный 30дневный период из таблицы bookings Собирают связанные данные из tickets, segments, flights, boarding_passes Особенности : Использует Presorted Key : b.book _date для оптимизации сортировки Обрабатывает только необходимое количество строк для достижения лимита Fullsort Groups : 4 потребовалось отсортировать только 4 группы Join Filter удаляет много строк (Rows Removed by Join Filter: 1,684,634) Использует Memoize для кэширования результатов flights Стратегия : Аналогична LIMIT , но дольше изза большего объема данных Особенности : Обрабатывает больше строк в Index Scan (6219,817 vs 1684676 у LIMIT ) Join Filter удаляет 6219779 строк Та же стратегия Incremental Sort с Fullsort Group s: 4 Время выполнения : 41.69 секунды (в 810 раз медленнее !) Стратегия : Кардинально отличается полное вычисление всех строк Принципиальные различия : WindowAgg вычисляет ROW_NUMBER для всех 1,270,849 строк Run Condition отфильтровывает после вычисления Использует Hash Join и Merge Join вместо Nested Loop Внешняя сортировка на диске : Sort Method: external merge Disk: 133696kB Материализация промежуточных результатов с записью на диск Стратегия : Идентична FETCH , но с дополнительным узлом OFFSET Особенности : OFFSET 0 не добавляет накладных расходов Обрабатывает 4,682,444 строк в Index Scan Join Filter удаляет 4,682,404 строк ROW_NUMBER vs LIMITFETCH : ROW_NUMBER вычисляет все строки , затем фильтрует O(n) LIMITFETCH используют early termination останавливаются после нахождения 100 строк Разница в производительности: 41.69с vs 4.739.93с (в 49 раз!) Проблемы с Join Filter : Во всех планах (кроме ROW_NUMBER ) используется Join Filter с большим количеством удаляемых строк Это указывает на неоптимальное соединение: условие BETWEEN применяется как фильтр, а не как индексное условие Различия в стратегиях соединения : LIMITFETCHOFFSET : Nested Loop с индексами (быстро для первых строк) ROW_NUMBER : HashMerge Join (эффективны для полных сканирований, но не для лимитированных выборок) Для ограничения выборки всегда предпочитайте LIMIT или FETCH над ROW_NUMBER (). SPEED : Всего 1416 (на порядок ниже других запросов) WAITINGS : Чрезвычайно высокие значения (2683042065) IPC : Очень высокие (1222723436) интенсивное межпроцессное взаимодействие LWLOCK : Растёт от 46 до 102 проблемы с блокировками Вывод : Запрос с ROW_NUMBER работает в 1415 раз медленнее и создаёт огромную нагрузку на систему. Эти три метода показывают схожую производительность: WAITINGS : 106131 ( FETCH FIRST имеет немного меньше ожиданий) ROW_NUMBER абсолютно неэффективен для лимитированных выборок: Создает огромную нагрузку на систему Вызывает чрезмерные ожидания и блокировки Имеет на порядок худшую производительность FETCH FIRST показывает лучшие показатели по ожиданиям и IO: На 12% меньше WAITINGS чем LIMIT На 12% меньше IO чем LIMIT OFFSET 0 не добавляет накладных расходов : Производительность сопоставима с LIMITFETCH Незначительно лучше по WAITINGSIO чем LIMIT Стабильность системы : Запросы с LIMITFETCHOFFSET не создают проблем с блокировками ROW_NUMBER вызывает рост LWLOCK в 50 раз больше НИКОГДА не используйте ROW_NUMBER для простого ограничения выборки Используйте только когда нужна нумерация всех строк Предпочитайте FETCH FIRST над LIMIT : Лучшие показатели WAITINGS и IO Более стандартизированный SQL синтаксис Используйте OFFSET только при необходимости пропуска строк : OFFSET 0 безопасен, но OFFSET 0 будет читать и отбрасывать строки Мониторинг LWLOCK : Рост LWLOCK в ROW_NUMBER указывает на проблемы с конкурентным доступом Остальные запросы работают без блокировочных проблем Итог : Для ограничения выборки в PostgreSQL используйте FETCH FIRST (или LIMIT ), избегайте ROW_NUMBER . Разница в производительности достигает 15 раз , что подтверждается как планами выполнения, так и метриками нагрузочного тестирования. Все метрики iostat абсолютно одинаковы для всех четырёх типов запросов LIMIT, FETCH FIRST, ROW_NUMBER и OFFSET показывают идентичные значения Это свидетельствует о том, что дисковые операции не являются дифференцирующим фактором в производительности этих запросов . Все запросы работают с данными, находящимися в кэше PostgreSQL (shared_buffers) или операционной системы Отсутствие операций чтениязаписи на диск объясняет почему метрики одинаковы Разница в производительности между запросами (особенно ROW_NUMBER vs остальные) объясняется: Разными планами выполнения (как видно из EXPLAIN ANALYZE) Несмотря на катастрофическую разницу в производительности (ROW_NUMBER в 15 раз медленнее), iostat не показывает различий Это подтверждает, что проблема ROW_NUMBER в вычислительной сложности алгоритма , а не в дисковой подсистеме. Разница в производительности между LIMITFETCHOFFSET и ROW_NUMBER полностью обусловлена алгоритмической сложностью и внутренней обработкой данных PostgreSQL, а не дисковой подсистемой. Для LIMIT, FETCH FIRST, OFFSET: В начале теста (cpu_id 36%, cpu_us 63%) — система находится в умеренной нагрузке. Начиная примерно с 50й точки наблюдения происходит резкий переход: cpu_id падает до 0% . cpu_us возрастает до 98–99% . system_in (количество прерываний) резко увеличивается. Это указывает на рост нагрузки , который полностью загружает CPU в пользовательском режиме. Для ROW_NUMBER: Нагрузка на CPU более стабильна: cpu_us 37–56%. cpu_id 16–44%. Появляется значительный cpu_wa (wait IO) — от 11% до 20%. Это говорит о том, что запрос интенсивно работает с диском , а не только с CPU. Во всех тестах, кроме ROW_NUMBER , procs_r увеличивается с 6–7 до 10–15 в момент пиковой нагрузки. Это означает, что процессы начинают накапливаться в очереди на выполнение, так как CPU перегружен. В ROW_NUMBER очередь процессов меньше (procs_r 4–6), но есть процессы в состоянии procs_b (блокированные на IO). memory_swpd почти не меняется во всех тестах (215), что говорит об отсутствии активного своппинга. memory_free немного уменьшается в ходе теста, но остаётся стабильной. memory_cache постепенно снижается, что может указывать на использование кэша для дисковых операций (особенно в ROW_NUMBER ). Для ROW_NUMBER: io_bi (блоков ввода) достигает 73 954 . io_bo (блоков вывода) достигает 6 069 . Это подтверждает интенсивную работу с диском , что согласуется с высоким cpu_wa . Для остальных запросов: IO очень низкий (io_bi 200, io_bo 60), что говорит о том, что они работают в памяти. В LIMIT , FETCH FIRST , OFFSET наблюдается резкий скачок system_in (прерываний) в момент роста нагрузки . system_cs (контекстных переключений) также возрастает, но не так сильно. В ROW_NUMBER значения system_in и system_cs стабильно высоки, что связано с активным IO. Запросы LIMIT, FETCH FIRST, OFFSET ведут себя схоже: Начинаются с умеренной нагрузки. Затем резко переключаются в режим полной загрузки CPU . IO почти нет, работа идёт в памяти. Запрос ROW_NUMBER : Нагружает не только CPU, но и диск . Вызывает высокий IO wait . Вероятно, использует временные таблицы или сортировку на диске. Использование ROW_NUMBER() для разбиения данных на страницы при высокой одновременной нагрузке на базу данных неэффективно и не рекомендуется — этот метод создаёт значительную нагрузку на систему и резко снижает скорость работы. Что касается получения первой страницы результатов, разница в скорости между методами LIMIT , FETCH FIRST и OFFSET практически незаметна — все они работают быстро и стабильно. Выбор между этими тремя методами чаще всего зависит не от производительности, а от удобства реализации и необходимости поддержки перехода к следующим страницам данных. P.S. Следующая статья цикла пагинация на произвольную страницу большого набора данных.
8,403
https://habr.com/ru/companies/securitm/articles/973274/
habr.com
Информационная безопасность в ритейле всегда была сложным аспектом бизнеса. В отличие от многих других отраслей, здесь любой сбой моментально становится финансовым: если остановился сайт или платёжный шлюз, клиент буквально разворачивается и уходит. Если не работает кассовое ПО — магазин стоит. Если произошла утечка клиентских данных — в ход идут штрафы, репутационные потери и утрата доверия. За последние годы я неоднократно сталкивался с ситуацией, когда ритейлинговая компания вкладывает значительные средства в ИБ — покупает новые средства защиты, нанимает людей, масштабирует инфраструктуру — а проблемы только нарастают. Инциденты не исчезают, атаки проходят успешно, аудиты показывают низкую зрелость процессов. Снаружи всё выглядит так, будто ИБслужба просто «не справляется», но на деле корень проблемы совершенно другой. И почти всегда это не изза бюджета или людей, а изза процессов. Крупные сети живут в условиях постоянной нагрузки: сотни магазинов, тысячи сотрудников, десятки систем, 247 онлайноперации. При таких масштабах слабые места в безопасности проявляются моментально. Один из ключевых маркеров — когда компания тратит больше, а защищённость не растёт. В инфраструктуре появляются новые средства защиты, но никаких изменений в поведении инцидентов не происходит. В Active Directory сохраняется беспорядок: лишние доступы, неконтролируемые учётные записи, пароли живут годами, а иногда и переходят от сотрудника к сотруднику. На файловых серверах — бардак, правила межсетевых экранов не поддерживаются, журналы событий никто не анализирует регулярно. Параллельно ИБслужбы тонут в рутине. Нет единых контролей, каждый отдел делает чтото своё, отчёты собираются вручную, процессы мониторинга носят случайный характер. Изза этого происходят банальные, почти «детские» инциденты — заражённые вирусами рабочие станции, шифровальщики в бухгалтерии, забытое оборудование уволенных сотрудников, отсутствие антивируса на части кассовых систем. Все эти детали достаточно сильно бьют по финансовой составляющей компании, хоть и видятся незначительными. Если обобщать многолетний опыт, самый частый источник финансовых потерь — это простои ITсервисов. Причём далеко не всегда изза атак. Иногда это банальный неперепродлённый домен или просроченный сертификат. Иногда — недоступность файловых серверов или кассовых систем изза внутреннего сбоя. Иногда — массовое заражение изза устаревшего ПО. Цена простоя в ритейле огромна. Сайт интернетмагазина недоступен — поток заказов просто исчезает. Платёжный шлюз падает — кассы блокируются, магазины не продают. Вирусшифровальщик парализует бухгалтерию — компания не может оформить накладные, проводить операции, взаимодействовать с поставщиками. Даже короткий отказ инфраструктуры может стоить десятки миллионов рублей. А если проблема возникает накануне крупных распродаж — ущерб увеличивается кратно. Вторая по значимости категория потерь — данные. Ритейл работает с огромным объёмом клиентской информации, транзакциями, программами лояльности, поведенческими профилями покупателей. Утечка CRMбазы — это прямой удар по конкурентоспособности. Кража коммерческой информации — удар по переговорам, закупке, логистике. Утечка ноухау — удар по технологическому развитию. В высококонкурентной среде данные — это актив. И потеря актива всегда измеряется деньгами. Я продолжаю видеть, как компании переживают атаки, которые можно было предотвратить. Здоровая архитектура безопасности приводит к тому, что вирусшифровальщик ограничивается одним сегментом. Нездоровая — приводит к разрушению инфраструктуры целиком. В ритейле точки продаж всегда подключены к сети, вектор атаки часто начинается с самой неожиданной стороны — терминала, кассы, сервисной станции. А заканчивается полной остановкой бизнеспроцессов. Штрафы не так часты, как простои, но ответственность за данные клиентов в ритейле огромна. Несоответствие требованиям регуляторов может не только стоить денег, но и усложнить работу с банками, платёжными системами, поставщиками. К косвенным потерям относятся задержки вывода новых продуктов, блокировка крупных сделок, невозможность подключить новых партнёров, потеря лояльности клиентов и партнёров, а также репутационные риски. Всё это опосредованно, но очень ощутимо бьёт по выручке. Дополнительная зона потерь — скрытые эффекты, которые не очевидны руководству, но существенно отражаются на экономике сети. Когда ИБпроцессы работают фрагментировано, внутренние инциденты перестают фиксироваться, а часть событий просто теряется в рутине. Магазины живут по своим правилам, передавая информацию с задержками, через чат, по почте или «по памяти». В итоге цепочка реакции растягивается, решения принимаются несвоевременно, а реальные причины сбоев тонут в потоке несистемных данных. Компания начинает реагировать на последствия, а не на причины, что делает любые инвестиции в безопасность неэффективными. В результате даже мелкие инциденты вырастают в крупные операционные проблемы, а единая картина рисков просто не существует. Когда анализируешь такие ситуации, становится очевидно: единственная причина всех перечисленных потерь — отсутствие системности. Компании могут сколько угодно увеличивать бюджет, покупать средства защиты, внедрять модные платформы, но если процессы не выстроены, ничего не изменится. Подход, который мы реализуем в SECURITM, строится именно вокруг системности. Сначала мы устраняем фрагментацию: ИБ перестаёт быть набором разрозненных действий и превращается в единый управляемый процесс. На уровне архитектуры создаётся модель, где активы, риски, требования, меры защиты и метрики взаимосвязаны. Это позволяет видеть полную картину: какие системы критичны, какие процессы уязвимы, где уровень зрелости ниже нормы, что влияет на риски и какие меры действительно работают. Модуль Compliance связывает требования регуляторов и стандартов с реальными активами и процессами компании. Модуль Активов формирует прозрачный реестр инфраструктуры, устраняя «чёрные зоны», которые чаще всего и приводят к инцидентам. Модуль RM помогает оценивать риски в привязке к бизнеспроцессам, а VM превращает работу с уязвимостями в управляемый и измеримый процесс. Система автоматически подсвечивает проблемные зоны, напоминает о регулярных мероприятиях, показывает динамику зрелости и обеспечивает единый контур управления. Это снижает вероятность простоев, уменьшает риск инцидентов и сокращает время на прохождение аудитов. Ритейлеры, с которыми мы работали, отмечают, что после внедрения SECURITM количество автоматизированных процессов заметно растёт, а их стабильность увеличивается. Прозрачность инфраструктуры позволяет быстрее выявлять слабые места, а унификация процессов — снижать количество инцидентов и исключать человеческий фактор в рутинных задачах. Подготовка к аудитам, которые раньше занимали месяцы, начинает укладываться в недели. Руководство получает возможность принимать решения на основе данных, а не предположений. ИБ перестаёт быть пожарной службой и становится полноценным управляющим механизмом. Ритейл исторически работает на низкой марже, высокой конкуренции и зависимостью от непрерывной работы сервисов. Неэффективная ИБ — это реальные деньги, которые уходят каждый раз, когда чтото ломается, утекает или атакуется. Когда процессы ИБ становятся системными, автоматизированными и управляемыми, ритейл получает не только защиту, но и стабильность бизнеса. А стабильность в ритейле всегда превращается в выручку. Попробуйте бесплатно Communityверсию SECURITM — и управляйте информационной безопасностью эффективно, независимо от масштаба вашей компании. Регистрация простая и доступна каждому!
7,594
https://habr.com/ru/companies/ruvds/articles/975862/
habr.com
Как мы видели в первой части , воздухоплавание было изобретено во Франции эпохи Просвещения, и идея управляемого воздушного шара, дословно пофранцузски ballon dirigeable, возникла на следующий же год после полётов первых воздушных шаров. Однако первые эксперименты по созданию дирижаблей на ручной силе — достаточно компактных и лёгких паровых машин пока не существовало даже в проектах — окончились провалом, в том числе попытки создать дирижабльбомбардировщик в России для отражения вторжения Наполеона в 1812 году. Прогресс, однако, не стоял на месте, и невозможное в конце XVIII столетия к середине XIX века уже было теоретически и конструктивно осуществимым. А идея сделать воздушный шар управляемым никогда не покидала пытливые умы изобретателей — особенно французов, считавших воздухоплавание предметом национальной гордости. В 1850 году Пьер Жюльен из Вильжюифа продемонстрировал на парижском ипподроме модель дирижабля в форме сигары и в жанре, так сказать, клокпанка. Рули и гондола дирижабля были установлены под передней частью баллона. Дирижабль должен был приводиться в движение заводным часовым механизмом, который вращал два воздушных винта, установленных по обе стороны от гондолы. Однако проект так и не был воплощён в виде действующей модели. Первым успеха в деле создания дирижабля удалось достичь молодому парижскому изобретателю Анри Жиффару. С подросткового возраста он безнадёжно влюбился в железные дороги, сеть которых с начала 1840х годов быстро разрасталась из Парижа. Где железные дороги — там и паровые машины, которого юного Анри тоже крайне интересовали, он окончил курсы Центральной школы искусств и мануфактур и некоторое время работал железнодорожным механиком. Уже в 25 лет он изобрёл паровой инжектор для котлов, который получил широкое распространение и позже принёс автору, благодаря патенту, солидные средства. Вторым его увлечением с первого полёта в 18 лет стали воздушные шары — и естественно, что вскоре ем пришло в голову скрестить одно и другое. Окончательным толчком стало знакомство с проектом заводного дирижабля Жюльена — но в качестве двигателя Анри Жиффар решил использовать паровую машину. Уже в августе 1851 года он подал заявку на патент о применении парового двигателя в аэронавигации. Однако главным вопросом было, получится ли собрать достаточно лёгкий и при этом мощный паровой двигатель, чтобы привести аппарат в движение. После месяцев напряжённых размышлений, расчётов и экспериментов в компании двух ассистентов, ему удалось собрать искомое. Это было очень компактное по тем временам устройство мощностью около 2,2 киловатт или трёх лошадиных сил. Весило оно заметно меньше трёх лошадей: чуть больше 110 килограмм, котёл добавлял ещё 45 кило. Вода и высококачественный уголь для достаточной по длительности работы паровой машины весили чуть более 300 кг. Дирижабль, который он должен был приводить в движение, был построен по проекту Анри Жиффара мастером Эженом Годаром. Баллон сигарообразной формы с заострёнными для обтекаемости концами имел длину 44 метра и объём около 3200 кубометров. Под ним на множестве тросов была подвешена деревянная балка с треугольным парусомрулём на конце, а ещё ниже — открытая гондола с ограждением, паровой машиной и трёхлопастным воздушным винтом диаметром 3,4 метра. Чтобы избежать вероятности воспламенения огнеопасного водорода от искр, дым выводился вниз от гондолы через трубу. Первый полёт парового дирижабля Жиффара состоялся в 17:15 в пятницу 24 сентября 1852 года. Он успешно взлетел с парижского ипподрома у современной площади Шарля де Голля — однако придать движению полностью управляемый характер оказалось невозможным. Ветер на высоте полуторадвух километров, куда поднялся аппарат, оказался слишком сильным, чтобы маломощный двигатель смог его преодолеть. Однако всё же обнаружилось, что в остальном несомый ветром дирижабль оказался вполне способным корректировать скорость движения, поворачивать в нужном направлении и даже описывать круги. Если бы дело было в штиль, то эксперимент оказался бы вполне удачным, со скоростью движения около 2–3 метров в секунду или 7–11 километров в час. В конечном итоге, аппарат продрейфовал за три часа на расстояние 27 километров до Эланкура, где совершил мягкую посадку, в чём воздухоплавателю помогли местные жители. 8 мая 1855 года Анри Жиффар, уже в компании своего ассистента Габриэля Йона, совершил экспериментальный полёт на новом дирижабле. Он имел примерно то же устройство, но длину более узкого баллона уже в 70 метров, большую грузоподъёмность и более мощный двигатель. Однако полёт был прерван инцидентом и едва не обернулся катастрофой: ещё на стадии подъёма баллон начал выскальзывать из плохо закреплённой сети тросов. Воздухоплавателям пришлось срочно спускать водород и снижаться. Спаслись они почти чудом: как только аппарат почти достиг поверхности, баллон окончательно выскользнул и умчал в небеса, а оставшаяся конструкция вместе с экипажем ударилась об землю. Впрочем, никто особо не пострадал, но больше Жиффар с дирижаблями не экспериментировал — хотя воздушные шары строил неоднократно. Однако работоспособность схемы была окончательно доказана. В 1858 году Анри Жиффар за изобретение дирижабля и инжектора получил орден Почётного легиона, а позже его имя было внесено в список из семидесяти двух имён французских учёных и изобретателей, начертанных на Эйфелевой башне. Следующий шаг, хотя и слегка своеобразный, был сделан в ходе трагической для французов франкопрусской войны. Два с лишним века считавшаяся сильнейшей в Европе сухопутная армия Франции была наголову разбита созданной Бисмарком новой немецкой военной машиной. Париж с середины сентября 1870 года оказался в осаде и изоляции от остальной территории Франции. В городе оперативно развернули создание воздушных шаров. Их изготовляли и хранили на железнодорожных вокзалах французской столицы с их огромными дебаркадерами. Шары использовали для наблюдения за перемещениями немцев в окрестностях города, а затем и для связи поверх немецких осадных позиций. Уже 23 сентября воздушный шар с инженером Дюрюофом успешно совершил первый перелёт, за ним последовали другие. С собой экипажи брали письма и депеши для дальнейшей пересылки, и корзины с почтовыми голубями для того, чтобы отправлять послания обратно в Париж. Экипажи составляли или опытные воздухоплаватели, в том числе использовавшие ранее воздушные шары в развлекательнокоммерческих целях, или оказавшиеся в городе военные моряки. Всего за почти полгода осады было запущено 67 воздушных шаров, из которых лишь один был сбит немецкими войсками, и пять угодили в руки противника при неудачных посадках. Правда, не все воздушные шары, особенно с неопытными экипажами, совершали посадки хоть както по плану. Ждать попутных ветров подходящей силы получалось не всегда — и некоторые из них заносило в другие страны, один долетел даже до Норвегии. Осознав эту проблему, правительство национальной обороны обратилось в конце октября к талантливому конструктору Анри Дюпуи де Лому, создателю первых в истории полноценных океанских броненосцев «La Gloire», «Magenta» и «Solférino». Ему поручили как можно скорее сконструировать и построить управляемый воздушный шар, то есть дирижабль — чем он немедленно и занялся. Получившийся проект представлял собой по сути сильно запоздалую реализацию того, что почти сотней лет ранее предлагал построить Жан Батист Мёнье де ла Плас, и неудачно пытались реализовать братья Робер. Продолговатый купол длиной 36 и диаметром 14 метров при объёме 3400 кубометров нёс под собой удлинённую гондолу с экипажем из 10–12 человек. В движение конструкция приводилась усилиями четверых человек, крутивших сдвоенный воздушный винт большого диаметра. Строительство началось сложной и голодной осадной зимой, когда в городе уже не хватало ни материалов, уже пущенных на воздушные шары, ни сил у людей. Затем, после полного исчерпания запасов продовольствия и топлива, и жесточайших обстрелов тяжёлой артиллерией, город капитулировал — и через некоторое время взорвался восстанием Парижской коммуны. Естественно, строительство дирижабля де Лома было прервано, но недостроенный объект удалось сохранить, а затем перевезти на военную базу в Венсене. Испытания были проведены лишь 2 февраля 1872 года — и увенчались успехом. Усилиями восьми опытных матросовгребцов, сменявших друг друга четвёрками через полчаса работы, удалось добиться управляемого движения со скоростью до 8 километров в час. Однако было очевидно, что будущее — не за дирижаблями на человеческой тяге. Финальный шаг, превративший дирижабль из экспериментальной машины в объект промышленного производства, был сделан вновь во Франции. Третья республика и её вооружённые силы всё ещё старались оправиться от сокрушительного поражения, понесённого от объединённых германских армий в 1870 году. Ещё недавно Франция полагала себя военным гегемоном Европы, теперь над ней нависала с востока куда более мощная и амбициозная Германская империя. В поисках военных инноваций, как бы сказали сейчас, game changers, обратились к национальному изобретению дирижаблю — теперь уже не на уровне самоучекэнтузиастов и экстренных проектов военного времени, а официально и системно. В 1877 году был создан Центральный институт военного воздухоплавания, причём во всё том же замке Мёдон, где базировались аэростатные роты ещё в революционные времена. При нём было развёрнуто промышленное производство водорода, и в 1879 году построены два больших эллинга дя хранения и испытаний военных дирижаблей. Институт возглавил полковник Шарль Ренар, давний энтузиаст воздухоплавания, он же стал его главным инженеромконструктором. Вместе с инженером Артюром Кребсом он спроектировал и построил в 1884 году экспериментальный дирижабль «La France». Принципиально он не слишком отличался от машин, изготовленных Анри Жиффаром. Узкий сигарообразный баллон длиной 50 и шириной 9 метров. Под ним на тросах располагалась длинная 32метровая бамбуковая гондола. На носу она была оснащена электродвигателем мощностью 6,6 киловатт (9 лошадиных сил) с четырёхлопастным винтом диаметром 7 метров, в хвосте располагался воздушные рули направления и высоты. Кабина для двух человек экипажа располагалась в центре, откуда производилось управление и двигателем, и рулём, и спуском газа из баллона. 9 августа 1884 года Шарль Ренар и Артюр Кребс совершили первый полёт — увенчавшийся успехом: аппарат двигался со скоростью до 22 километров в час, неплохо управлялся, боролся со встречным ветром и за 22 минуты полёта впервые в истории воздухоплавания успешно вернулся в точку старта. В последующих семи испытаниях вернуться в нужную точку удалось пять раз. При этом заряда хромохлоридного аккумулятора хватало на три часа полёта на максимальных оборотах. В 1889 году «La France» был презентован на Всемирной выставке в Париже — но к этому времени дирижабли уже вовсю строились и в других странах, включая Германию. Однако военные и Франции, и других стран в 1880е быстро охладели к идее боевого или разведывательного использования дирижаблей: первые образцы были всё ещё слишком медленными и ненадёжными. Центральный институт военного воздухоплавания в 1888 году был преобразован в Дирекцию военных аэростатов, прекратил работу с дирижаблями — и по сути объект в замке Медон вернулся к тому же, с чего начинал сотней лет назад. Лишь с 1912 года они стали снова строить дирижабли — но создали их всего 10 штук, тогда как частные французские компании производили дирижабли десятками. Французские военные вернулись к дирижаблям лишь в 1905 году, купив у частной компании Lebaudy Frères полужёсткий «Leboudy III» длиной около 60 метров и с объёмом порядка 3000 кубометров. Затем у того же производителя французские военные закупили ещё несколько более крупных машин, за ними последовали русские и британские заказы у Lebaudy Frères и других французских компаний. В годы войны и французы, и британцы построили сотни дирижаблей. Однако, в отличие от немецких, почти все они были относительно небольшими, мягкой конструкции, несли мало людей, топлива и бомб, и были неспособны к действительно дальним и высотным полётам. Французские дирижабли были наиболее активны в операциях над сушей, они вели дальнюю авиаразведку и совершали бомбовые удары по железнодорожным станциям и другим целям в тылу противника. Уже 9 августа, в самом начале войны, мягкий дирижабль «Fleurus I» производства замка Мёдон, всё ещё явно напоминавший обликом первые эксперименты Анри Жиффара, прошёл долиной реки Саар и совершил бомбовый удар по железнодорожному вокзалу в Трире, чтобы затруднить переброску немецких войск на фронт. «Adjutant Vincenot» стал самым активным дирижаблем французов, совершив 31 боевой вылет. Кроме того, дирижабли сыграли важную роль в разведке перемещения немецких войск за линией фронта — что отчасти и позволило остановить их на подступах к Парижу в битве на Марне. К концу войны, впрочем, совершенство авиации и зенитных средств сделали полёты на лёгких дирижаблях у фронта даже ночью почти невозможным, и с марта 1917 года все машины перевели на морское патрулирование и сопровождение конвоев. В распоряжении русского Императорского воздушного флота на начало Первой мировой войны состояло лишь 14 дирижаблей французского и отечественного производства. «Астра», бывшая «Astra XII» производства Astra ClémentBayard, совершила единственную успешную бомбардировку железнодорожной станции Лык в мае 1915 года. Это было сделано под командованием Бориса Васильевича Голубова, военного инженера, разработавшего отечественные военные дирижабли «Альбатрос» и «Гигант», и предложившего проект жёсткого дирижабля «Воздушный крейсер» объёмом 33000 кубометров. Прочие дирижабли Российской империи успешных бомбардировок провести не сумели, да и пытались это делать редко: командование предпочитало применять редкие и ценные летательные аппараты в основном для разведки. Британские дирижабли, которые в основном строили британские же компании, были почти исключительно мягкими и небольшими — зато количественно их создали более 200. Всю войну они использовались почти исключительно для морского патрулирования, включая охоту на немецкие подлодки, и сопровождения конвоев. Они совершили десятки бомбовых атак на обнаруженные субмарины, но не очень понятно, потопили ли хоть одну достоверно. Куда более эффективно они наводили на них патрульные корабли и бомбардировщики. Кроме того, немецким рейдерам и субмаринам приходилось всегда иметь в виду возможность обнаружения с воздуха, что не способствовало облегчению их действий. А вот со строительством жёстких дирижаблей, несмотря на значительные усилия, у британцев не очень ладилось: несколько единиц было построено, но не очень удачно, они почти не применялись в боевых действиях. Действительно толковые жёсткие дирижабли в Великобритании удалось построить только после изучения попавшего к ним почти целым трофейного «Цеппелина» L33. Но строительство было завершено уже после окончания войны, и в историю британские жёсткие дирижабли вошли лишь по двум причинам: первые эксперименты с подвесными истребителями под дирижаблем 23R, и первый трансатлантический перелёт R34 в 1919 году из Шотландии на ЛонгАйленд. После Первой мировой войны, несмотря на ряд смелых проектов, во Франции и Британии интерес к дирижаблям быстро угас: становилось слишком очевидным, что будущее за самолётами, и воздушные корабли теперь уступают им по всё большему числу параметров. Обе страны немного поэкспериментировали в 20е годы с полётами в дальние колонии, но после ряда трагических катастроф отказались от этой идеи, сосредоточившись сугубо на самолётах. Развивать дирижаблестроение всерьёз в Интербеллум продолжили лишь в четырёх странах. В Италии Умберто Нобиле создал сильную школу строительства полужёстких дирижаблей — и он же изрядно помог в запуске их строительства для амбициозной советской программы «Дирижаблестрой» в 30е годы. В США воздушными кораблями занялся военноморской флот в целях дальнего океанского патрулирования — прежде всего над бескрайними просторами Тихого океана, пока что слишком обширными даже для больших летающих лодок. Причём в числе дирижаблей ВМС США имелись даже три настоящих воздушных авианосца. Ну и немцы, приобретя в Первой мировой колоссальный и уникальный опыт использования больших дирижаблей твёрдой конструкции, старались удержать позиции хотя бы на линиях гражданских авиаперевозок — венцом чего стали колоссальные «Гинденбург» и «Фон Цеппелин». Впрочем, о Германии, её особенных дирижаблях, и почему именно немцы, а не пионеры французы стали наиболее ассоциирующейся с тими воздушными кораблями нацией, мы поговорим в следующей части.
16,532
https://habr.com/ru/companies/tbank/articles/973720/
habr.com
Всем привет! Мы — Javaразработчики ТБанка: Андрей , Арсений , Роман , Константин и Константин. Собираем интересные новости, статьи, туториалы и другие материалы из мира Javaразработки и делимся со всем сообществом. Этот месяц в мире Java выдался насыщенным. В JDK 26 готовят превью Lazy Constants и Structured Concurrency, собираются убрать режим строк только UTF16, а стандартный HttpClient получает более гибкую поддержку TLS. Главное событие — GAрелизы Spring Framework 7 и Spring Boot 4: модульная автоконфигурация, новый HTTPклиент, версионирование REST API, переход на Jackson 3 и множество других улучшений. Из практики: разбор пагинации в Spring Data JPA, подводные камни MapStruct и заметка о балансе между чтением и написанием кода. Приятного чтения! JEP 526: Lazy Constants (Second Preview) направлен в JDK 26. JEP представляет API для ленивых констант, которые позволяют инициализировать объекты с неизменяемыми данными по требованию, а не при создании объекта или инициализации класса. Появляется гибкость в выборе времени инициализации, сохраняя при этом преимущества констант для оптимизаций JVM. Переориентируется на высокоуровневые сценарии использования с удалением низкоуровневых методов. Упрощается за счет удаления малополезных фабричных методов function и intFunction. Запрещает использование null в качестве вычисляемого значения для повышения производительности и согласования с неизменяемыми коллекциями и ScopedValue. JEP 525: Structured Concurrency (Sixth Preview) направлен в JDK 26 . Про этот джеп мы уже не раз писали, но напомним, что он позволит упростить параллельное программирование, улучшит обработку ошибок, отмену задач, наблюдаемость и надежность кода. С этим джепом группы связанных задач можно будет рассматривать как единые блоки группы связанных задач, выполняемых в разных потоках. Добавлен в JDK 26 в качестве превью для сбора дополнительной обратной связи и внедрения незначительных улучшений в API. JEP draft: Deprecate the UTF16only String Representation . Начиная с JDK 9 используется так называемый Compact Strings — внутреннее хранение строк в однобайтовой кодировке ISO Latin1 (для «простых» строк) или в UTF16 по необходимости, что экономит память. Поддержка старого режима (UTF16only), доступного через флаг XX:CompactStrings (отключение компактного режима хранения), давно не оптимизируется и даже приводит к багам, поэтому JEP предлагает полностью удалить это в будущих релизах JD. Quality Outreach Headsup — JDK 26: HttpClient Supports TLS Named Groups Signature Schemes . Статья посвящена нововведениям в JDK 26 и рассказывает, что в этой версии Java HttpClient начнет поддерживать TLS Named Groups и Signature Schemes. Это позволяет более гибко настраивать ограничения TLS в Javaприложениях и не использовать для этого клиенты из библиотек. ONNX Based Generative AI LLMs in Java with Project Babylon Лекция о том, как с помощью Project Babylon и рефлексии в Java можно трансформировать исходный код в исполняемые модели ИИ и экспортировать их в формате ONNX. Показаны практические шаги от аннотированного Javaметода до запуска модели в ONNX Runtime, включая оптимизации, частичную оценку и работу с тензорами — идеально для Javaразработчиков, интересующихся генеративным ИИ и нативной интеграцией ML. Symbolic Modeling and Transformation of Java Code JVMLS Лекция на JVMLS посвящена символическому моделированию Javaкода с использованием рефлексии — мощному подходу для анализа и трансформации программ в виде метамоделей. Показано, как Javaконструкции (переменные, условия, циклы, шаблоны) представляются в виде дерева операций, что позволяет выполнять статический анализ, оптимизации и интеграцию с MLмоделями. Стоит посмотреть, чтобы понять, как Project Babylon расширяет Java за счет рефлексии на уровне кода и готовит почву для гетерогенных вычислений и ИИ. Performance Improvements in JDK 25 — обзор ключевых улучшений производительности, которые появились в JDK 25. Автор проходит по всем подсистемам JVM (библиотеки, GC, JIT, профилирование, работа с памятью) и перечисляет десятки изменений, которые в совокупности делают платформу быстрее, стабильнее и экономичнее по памяти. Java Annotated Monthly — November 2025 — подборка новостей, статей и обзоров из экосистемы Java, Kotlin и сопутствующих технологий с практическим уклоном. Свежие релизы JDK, заметные движения в Springмире, статьи по производительности, подборки практических гайдов для разработчиков и полезные разборы инструментов. Help, My Java Object Vanished (and the GC is Not at Fault) описывает, как разработчик HotSpot JVM в проекте OpenJDK столкнулся с исчезновением Javaобъектов при работе над JEP 450 (Compact Object Headers) в Project Liliput. Автор подробно рассказывает о процессе отладки, выявлении и устранении ошибки, связанной с компилятором C2 и обработкой объектных мониторов изза неправильной битовой маски. Материал рассказывает, чем занимается Project Liliput изнутри и полезен разработчикам, изучающим устройство JVM. NullSafe applications with Spring Boot 4 . Начиная с Spring Boot 4.0 в большинстве модулей будет nullsafe API. Nullsafety достигается путем добавления на все API аннотаций Nullable и NotNull, что позволит понимать о возможном NullPointerException еще в compiletime. Modularizing Spring Boot . Spring Boot 4 перерабатывает автоконфигурацию: вместо одного «толстого» springbootautoconfigure появляются более гранулярные модули и соответствующие стартеры. Это сокращает размер зависимостей и classpath, убирает лишние классы в автодополнении IDE и позволяет более точечно подключать конкретные компоненты. Например, WebClient теперь можно подключить не только попутно подключая весь springwebflux, а используя небольшой springbootwebclient. MultiFactor Authentication in Spring Security 7. Spring Security 7 добавляет встроенную поддержку мультифакторной аутентификации: разные способы входа оформляются как отдельные «факторы», которые можно гибко требовать для разных эндпоинтов. MFA настраивается глобально через аннотацию или точечно через AuthorizationManagerFactory, поддерживает timebased и userbasedправила и легко расширяется своими AuthenticationProvider, включая passwordlessсценарии. Spring gRPC Next Steps for 1.0.0 о том, что конфигурацию Spring gRPC планировали перенести в ядро Spring Boot 4.0, но не успели к GA. Изза этого команда решила выпустить отдельный Spring gRPC 1.0 с поддержкой Boot 4 под тем же groupId org.springframework.grpc. На данный момент миграция будет выглядеть как изменение версии в pomфайле, а уже в Spring Boot 4.1 планируют окончательно слить Spring gRPC со Spring Boot. IntelliJ IDEA 2025.3 Spring 7. Пост о том, как IntelliJ IDEA 2025.3 будет помогать работать с новыми фичами Spring 7: Встречаем Spring AI Agents и Spring AI Bench — перевод статьи Introducing Spring AI Agents and Spring AI Bench. Автор рассказывает о двух новых инкубационных проектах для работы с AI, которые недавно вошли в Spring AI Community. Первый — Spring AI Agents, инструмент предлагает универсальную абстракцию AgentClient, для работы с CLIагентами, такими как Claude Code, Gemini CLI от Google, Amazon Q Developer и другими. Второй — Spring AI Bench, набор бенчмарков, позволяющих определить, насколько хорошо агенты справляются с различными задачами. Ну все! Теперь точно Final объясняет, что такое стратегия Integrity By Default и как с ней связан JEP 500. Дается историческая справка о том, как так вышло, что final на самом деле не совсем final, при чем тут не самая удачная реализация механизма сериализации в Java и какие бенефиты реализация JEP 500 принесет платформе Java. MapStruct: как безобидный метод портит весь маппинг — перевод заметки MapStruct: When a Helper Method Maps More Than You Asked For. Автор рассказывает о неочевидном поведении MapStruct. Дело в том, что вспомогательный метод, объявленный в мапере, может примениться не только для тех мапингов, где указано его использование через expression. Помимо объяснения проблемы даются три способа ее решения. Spring Data Ahead of Time Repositories — Part 2. Небольшая статья о том, чего ожидать от AOTрепозиториев в Spring Data. Ключевые моменты: Генерация кода станет уникальной для каждого модуля Spring Data. SQLдиалект зафиксируется на этапе сборки приложения. AOTрепозитории можно будет отключить как все вместе, так и модули по отдельности. Так как код репозитория будет генерироваться на этапе сборки, то после нее можно ставить точки останова в сгенерированном коде, что облегчит отладку. Spring будет генерировать файлы метаданных в формате json. В них будет информация о репозиториях, которую можно использовать для генерации документации или в плагинах для IDE. Появится возможность отключить генерацию метаданных. Сгенерированный код можно использовать для тестового прогона AOT Cache, что улучшит производительность при работе JVM с кодом репозиториев. При использовании реактивных интерфейсов репозиториев AOT не поддерживается. Towards Spring Tools 5 — Ready for Boot 4 and Framework 7 . Предстоящий релиз Spring Tools под номером пять принесет с собой поддержку фич из Spring Boot 4 и Spring Framework: Towards Spring Tools 5 — Stereotypes and a new Structural View . Вторая статья про будущее обновление Spring Tools 5. Раньше Spring Tools 5 умел создавать карты запроса и ориентироваться в них с помощью функции Go To Symbols. Эта функциональность эволюционировала и теперь будет использовать концепцию стереотипов из jMolecules 2.0, что позволит создать структурный вид проекта. Spring Tools сгруппирует запросы, контроллеры, JPAсущности и так далее в логическую структуру, по которой будет легко ориентироваться в проекте. Если в проекте использован Spring Modulith, то логическая структура поделится с учетом модулей. Offset and Keyset Pagination with Spring Data JPA — Thorben Janssen . Статья на сайте Торбена Янссена посвящена методам пагинации данных в Spring Data JPA: классической, всем хорошо известной пагинации с использованием смещения (offset) и пагинации с использованием ключей (keyset). Автор описывает преимущества и недостатки каждого подхода и предлагает примеры реализации для лучшего понимания. Foojay Podcast 82 — OpenJDK Projects (Leyden, Babylon, Panama) и TornadoVM Выпуск посвящен эволюции экосистемы OpenJDK и связанных с ней проектов: Project Leyden — ускорение старта JVM через AOT и профилирование. Работе TornadoVM — технологии, позволяющей запускать вычисления (включая AIнагрузки) на GPU прямо из Java. Гости рассказывают, как эти проекты могут быть полезны. Например, ускорение запуска Spring Bootприложений, векторные вычисления для AIзадач и GPUускорение. Foojay Podcast 83 — OpenJDK Evolutions plus Tips and Tricks . В выпуске обсуждают широкий пласт тем: от истории Java и ее портирования на Linux в 1995 году до современных направлений развития. Гости рассуждают о будущем Java, ее применении в мобильных и embeddedсредах, клиентских приложениях на JavaFX, затрагивают такие вещи, как: REST vs gRPC, виртуальные потоки vs асинхронность, JMHбенчмаркинги и даже исследование безопасности в автомобильных системах через Foreign Function Memory API. В итоге — хороший обзор про актуальные тренды, производительность, сферу применения Java и ее дальнейшую эволюцию. Перестаньте думать и начните уже писать код — перевод поста Good Programmers Get Off Their Butts. Пост был написан более 20 лет назад, но он все еще актуален. Невозможно нарисовать идеальный дизайн с помощью UMLдиаграмм, точно запланировать работы и уже только потом по диаграммам начать писать код. Если бы это было так, разработчики стали бы не нужны, еще когда появились генераторы кода по UML. Тогда, кстати, тоже верили, что программисты скоро потеряют работу. Ставь лайк, если помнишь те времена 30 августа прошел JVM Day — конференция для Java, Scala и Backendразработчиков. Наконец можно посмотреть записи всех докладов в плейлисте на Youtube и в VK Видео. Spring Boot 4.0 и Spring Framework 7.0. Долгожданный релиз Spring Framework 7.0 сохраняет совместимость с JDK 17, но уже ориентирован на LTSрелиз JDK 25 и переводит базовые спецификации на Jakarta EE 11 Kotlin 2.2. встроенный механизм версионирования RESTAPI — поддержка версий через path, header, querymediatype; стандартизированные аннотации nullsafety через JSpecify вместо устаревших решений; resilienceфичи типа декларативного retry и ограничения конкуренции (Retryable, ConcurrencyLimit); модернизация всего стекa под актуальные стандарты и экосистему. Вместе с фреймворком вышел Spring Boot 4 , который базируется на Spring 7 и официально доступен как GAрелиз. модульная автоконфигурация вместо одного тяжелого JAR, что уменьшает вес приложения; поддержку OpenAPIгенератора множественной спецификации аутентификации HTTPклиента через параметр конфигурации; восстановлено поведение OkHttpClient со значением параметра retryOnConnectionFailuretrue по умолчанию; Релиз Quarkus 3.30 приносит исправления багов, обновления зависимостей и новые возможности: поддержку аннотации Jackson JsonView для сериализациидесериализации в RESTклиентах; новый класс Decrypt, который предоставляет CLIкоманду decrypt для расшифровки секретов с использованием алгоритма AESGCMNoPadding; возможность выбирать методы RESTклиента, для которых должен прокидываться OIDCтокен. В раннем доступе появился Kotlin 2.3.0RC , в котором JetBrains продолжает готовить язык к следующему большому релизу: улучшена работа компилятора (умнее резолвинг, меньше нечитаемых ошибок); стабилизированы некоторые ранее экспериментальные возможности вроде более строгих проверок when и вложенных type alias; добавлена поддержка новых платформ — Java 25, Gradle 9; обновился KotlinJS и KotlinWasm: для Wasm включены FQимена классов поумолчанию новая модель обработки исключений, для JS — экспериментальный экспорт suspendфункций новое представление LongArray как BigInt64Array. Вышла новая версия IntelliJ IDEA 2025.2.5. Самые заметные изменения: исправлена обработка APIвызовов при обновлении Docker Engine до версии 29; проекты Gradle 9.x со Spring Boot теперь корректно запускаются через Gradle Runner; исправлена проблема, изза которой IDE могла зависать при сканировании HTTPфайлов с некоторыми JSONструктурами; плагин GitLab теперь корректно обрабатывает большие IDпайплайнов. Вышел Micronaut Framework 4.10.2 — патчрелиз, закрывающий несколько неприятных багов и подтягивающий стабильность экосистемы: исправлены проблемы в Micronaut Security — некорректная работа JWT в отдельных конфигурациях; в Micronaut Serialization исправлены утечки при работе с Jacksonмодулями; улучшена совместимость с Micronaut Data и gRPCмодулями; фикс проблем с ConfigurationProperties, которые иногда не подхватывали значения в нативных билдах. Плюс традиционный набор dependency upgrades по всей линейке. Релиз небольшой, но полезный — обновляться можно смело. Спасибо за прочтение! Присылайте материалы , если встретили чтото интересное, — опубликуем в следующем выпуске.
14,875
https://habr.com/ru/companies/netologyru/articles/973684/
habr.com
Кто зарабатывает больше, какие навыки нужны и как попасть на первую работу, если ты джун. Разбираем две профессии: разработчик и системный инженер. Это два пути в ИТ, но для каждого нужны свои навыки. Вместе с экспертами разбираемся с порогом входа, обязанностями и рабочим днём этих специалистов. Вкатиться в профессию с нуля проще в разработку. Профессия системного инженера требует больше знаний технологий, порог входа выше. Но если вы готовы учиться, то всё получится. Зарплаты на позициях джунов выше у системных инженеров, чем у разработчиков. Конкуренция на место выше среди разработчиков, но и вакансий на рынке тоже больше. Хороший способ вкатиться после обучения — делать петпроекты и мониторить стажировки, которые дадут первую запись об опыте в резюме. Системный инженер — это тот, кто проектирует, внедряет, сопровождает и развивает программнотехнический комплекс ИТсистем, занимается инфраструктурой. В обязанности также может входить подготовка документации, написание инструкций и третья линия техподдержки. Но список требований разнится от компании к компании. Я работал системным инженером, пока не стал техническим директором. До управленческой роли в мои задачи входили: интеграция разных инструментов безопасности, работа с уязвимостями, автоматизация и интеграция инструментов между собой. Я занимался кластерами в Kubernetes и Docker, а также прочими инфраструктурными компонентами в продуктах компании. Какую конкретно роль исполняет системный инженер — зависит от конкретного бизнеса и команды. Это может быть и DevOpsинженер, и SRE, и билд или релизинженер. Системный инженер может работать на уровне железа, а может и в облачной среде. Поэтому понимать нужно и то и другое, но можно уйти в одну из специализаций и искать работу именно по ней. Правда, это накладывает дополнительные ограничения на число доступных вакансий. Обязанности разнятся от конкретной роли. Чаще всего речь про поддержку productionокружений, автоматизацию развёртывания и масштабирования, работу над инфраструктурной платформой, настройку мониторинга и алертинга, устранение инцидентов. Работа с облачными платформами, внешними или внутренними, инфраструктурой, как кодом, в Terraform и Ansible. В зависимости от компании или продукта системный инженер может заниматься разными вещами. Но в любом случае это будет примерно один и тот же набор технологий, которые нужно знать. Для системного инженера обязателен опыт в автоматизации и скриптовых языках, понимание и навык работы со сборочным конвейером. Системный инженер может специализироваться именно на сборочном конвейере и касаться лишь части пайплайнов, а не всей инфраструктуры в целом. Системному инженеру никуда не деться от базовых знаний Computer Science — это то, что нужно обязательно. В интернете есть хорошие бесплатные видеоматериалы, включая Гарвардский курс CS50 . Важно глубокое понимание Linux и сетей: TCPIP, VPC, DNS. Нужно разбираться в балансировке, контейнеризации и оркестрации контейнеров Docker и Kubernetes, построении CICDпайплайнов (непрерывная поставка и непрерывная интеграция). Понадобятся и знания систем мониторинга Prometheus, Grafana, ELK. Важно понимание принципов отказоустойчивости и высокой надёжности, навыки решения инцидентов. Часто нужно уметь программировать, обычно на Python, Bash, Go . Системный инженер — это человек, которому важно обладать компетенциями на стыке разработки и инфраструктуры. Он должен понимать, как собирается продукт, как доставляется в среду и где будет исполняться. И при этом разбираться, как работает и эксплуатируется среда. Иногда бывает, что системный инженер является тем, кто сам эксплуатирует среду исполнения. Если поставка идёт в кластер, то системный инженер его и поддерживает. Эти навыки сложно наработать. В основном они приходят с опытом и через решение проблем на практике. Если компания большая, системный инженер может специализироваться на чёмто узком. А если небольшая, то часто должен знать всё сразу. Понадобятся Jenkins, Harbor, Ansible, Grafana и другие технологии. Придётся разобраться и в API. Ведь при любой интеграции понадобятся эти знания. Также важно уметь предоставлять разработчикам безопасный доступ к инфраструктуре, мониторить телеметрию, собирать данные с тестовых окружений. Софты системному инженеру нужны такие же, как и любому другому — уметь коммуницировать, договариваться, уточнять детали и фокусироваться на бизнесе. Ещё важна стрессоустойчивость: не ловить паническую атаку, если чтото упало, а выдохнуть и идти исправлять. Способность сохранять трезвость ума, уметь спокойно проанализировать ситуацию и найти лучшее решение — ключевой навык системного инженера в дополнение к умению общаться. Опытные спецы советуют развивать эмоциональный интеллект, учиться излагать своё мнение и аргументировать его. Спорить приходится достаточно часто с разными людьми. А если ты понимаешь и свои эмоции, и других, то гораздо проще избежать конфликта и найти конструктивный путь решения. Среди важных навыков синьоры называют также умение организовывать своё время. Ведь задач бывает много, их нужно уметь правильно спланировать, распределить, встроить в структуру происходящих процессов. Сюда относится и умение прогнозировать, где у твоих коллег может возникнуть проблема. Если ты привнесёшь изменение, которое сильно усложнит разработке жизнь, возникнет неприятная ситуация, которая может закончиться скандалом. Поэтому понимать, как вы вообще работаете, какие есть процессы и как они устроены, кто тебя окружает и чем они занимаются — верхнеуровнево нужно обязательно. Ведь ты в любом случае работаешь не в вакууме, у тебя большое количество взаимодействий с людьми вокруг. Важно учитывать их интересы. Согласно исследованию вакансий на hh.ru за 2025 год, системным инженерам предлагают заработную плату в размере от 80 до 400 тысяч рублей. Самые востребованные и популярные предложения — с зарплатой от 150 до 200 тысяч рублей. При этом наблюдается снижение количества предложений — с 172 в 2024 году до 103 на 2025 год. Начинающие специалисты могут претендовать на роль помощника системного инженера или администратора. В вакансиях без опыта, но с базовыми знаниями Linux и устройства ПК уровень зарплаты — 40–50 тысяч рублей. Базовые знания компьютерных сетей, операционных систем и основ администрирования, прикладного и офисного ПО плюс опыт работы от года позволят претендовать на 60–70 тысяч рублей оклада. Начать стоит с Linux. Это критически важная часть. Затем изучить основы сетей и баз данных. Параллельно освоить Docker, Kubernetes. Важно понимать CICD (непрерывная поставка и непрерывная интеграция), поэтому придётся освоить Gitlab Jenkins. Практика критично важна. Поднимайте домашние проекты, деплойте их в облако, настраивайте мониторинг. Хорошая точка входа — junior DevOps или инженер техподдержки в продуктовой компании. Среди всех перечисленных в статье технологий для старта стоит изучить хотя бы половину (помимо базовых — Linux, сети, CICD). Так удастся попасть примерно в 60–70% вакансий. А остальному можно обучиться дальше уже по ходу работы. Сложность входа зависит от бэкграунда. Я в эту сферу попал после нескольких лет опыта в ИТбезопасности. У меня не было опыта разработки, но были знания сетей и операционных систем. Освоился в роли системного инженера я буквально за пару месяцев, потому что базовые знания уже были. Джуниор, чтобы найти первую работу, должен знать как минимум базовые компоненты Kubernetes и понимать Python. Научиться с нуля — может быть сложно, но если человек хотя бы немного умеет программировать, знает Linux и сети, то уже может претендовать на роль стажёра. А найти следующую работу будет намного проще. Объяснять хабровчанину, кто такой разработчик — конечно же, не нужно. И всётаки определимся с понятиями. Фронтендразработчик, автор телеграмканала « Код и кофе » Профессия разработчика — это очень широкое понятие в 2025 году. Это специалист, который создаёт, программирует, тестирует и поддерживает программное обеспечение, приложения, вебсайты, системы или другие ИТрешения. Это общий термин, который охватывает множество специализаций. Фронтендер отвечает за интерфейс и внешний вид сайтов и приложений для пользователя. Бэкендер — за связь интерфейса с базами данных и сторонними приложениями по API; он поддерживает серверную часть, следит за логикой работы и интеграцией со сторонними системами, обеспечивает масштабирование. Программист — это, прежде всего, инженер, который строит систему на определённых технологиях. Кроме владения самими технологиями важны навыки аналитического мышления, системность, умение собрать разрозненные элементы в единое целое с учётом требований и ограничений. Фронтендразработчик строит интерфейсы. Это тоже единая система, где все элементы взаимосвязаны. Бэкендер строит изнанку сервиса или приложения, обеспечивает взаимодействие компонентов. Чтобы даже банальный интернетмагазин работал без проблем и ошибок, а пользователи могли просматривать, откладывать и оплачивать товары, фронтенд и бэкенд трудятся вместе в поте лица. Их задача — чтобы всё работало стабильно, своевременно обновлялось, а пользоваться сервисом было безопасно. Набор хардскиллов для разраба зависит от технологического стека. Для фронтендера или вебразработчика важно знать вёрстку на HTML и CSS. Обязательно нужно владеть такими языками программирования, как JavaScript и TypeScript. Из фреймворков — React, Vue, Node.js — хотя бы один на выбор. Также для фронтендразработки используется PHP, но уже не так часто. Стандарт — это всётаки JavaScript и TypeScript. Для разработки на Android — Kotlin, на iOS — Swift. Можно освоить Kotlin Multiplatform, чтоб писать код сразу для нескольких платформ. Бэкендеры могут писать на разных языках: например, Python фреймворк Django, Java фреймворк Spring. Также могут быть такие языки, как Golang, Rust и другие. Для низкоуровневого программирования — C, C, C, Assembler. Но эти языки сложнее для входа: нужно понимание работы железа, компиляторов и так далее. Не забываем про библиотеки и opensource продукты. На Python для работы с данными — это Pandas и NumPy, для машинного обучения — TensorFlow, PyTorch. На Java для компиляции и маппинга — MapStruct. На самом деле, библиотек и инструментов для разных языков множество — всё зависит от задач. Не забываем про базы данных. Язык MySQL, Oracle — мастхев для бэкенда, а сейчас на российском рынке (и не только) актуален PostgreSQL. Помимо реляционных, стоит взглянуть и на документоориентированную MongoDB и формата ключзначение Redis. Даже бэкендеру важно понимать основы фронтенда, ведь компоненты системы взаимодействуют друг с другом. И, наоборот, фронтендер должен иметь общее понимание работы бэкенда, API и так далее. Любому современному разработчику вне зависимости от направления нужны базовые знания инфраструктуры: как устроена доставка кода конечному пользователю, как этот процесс работает поэтапно. Бэкендеру стоит разобраться на базовом уровне с Docker — это тоже относится к инфраструктуре. Фронтендеру — освоиться во FrontOps, чтобы собирать свои приложения. Из софтскиллов для разраба важно уметь переводить бизнестребования на язык разработки и обратно. Никуда не деться от коммуникации — работодатели уделяют гибким навыкам всё больше внимания. Поэтому развитый эмоциональный интеллект и умение общаться могут стать решающим критерием на собеседовании. Для разраба важны способность к обучению, навык переваривания большого количества информации и умение в ней разбираться, находить связи, видеть логику и уметь превращать это в код. Фронтендразработчик, автор телеграмканала «Код и кофе» К софтам часто относятся пренебрежительно или понимают под ними просто умение обаятельно пообщаться в курилке. Последнее — безусловно, важно, однако нельзя сводить понимание софтов только к весёлым разговорам. Софты — это про адекватность и ответственность, умение честно предупредить о задержке по задаче, способность без конфликтов и вечных уступок договориться о том, кто пишет часть логики — фронт или бэк. Навык не поддаваться прокрастинации, самостоятельно мотивировать себя работать эффективно и закрывать задачи в срок — сюда же. Программисты попрежнему входят в топ самых востребованных на российском рынке специальностей. Однако разработчикам становится всё сложнее найти работу. Например, годом ранее среднее количество вакансий для кодеров было на уровне 90,1 тысячи, а в 2025 году это значение составляет всего 62,5 тысячи. Количество вакансий уменьшается, и больше всего от этого страдают именно программисты. Темпы роста зарплат тоже снижаются. Согласно hh.ru , в 2025 году инженерпрограммист в России зарабатывает в среднем от 30 до 350 тысяч рублей. Зарплата зависит от грейда и региона. Джуниор может рассчитывать на зарплату от 30 до 120 тысяч рублей, мидл — от 50 до 150 тысяч, сеньор — от 100 до 350 тысяч рублей. По данным исследования Хабр Карьеры, больше всего в первой половине 2025 года выросли зарплаты вебразработчиков (15%) — до 138 тысяч рублей. А самыми высокооплачиваемыми языками стали ObjectiveС, Elixir, Golang, Kotlin и Ruby. Я сейчас вижу, что зарплаты составляют в среднем 200–220 тысяч рублей для грейда мидл в крупных городах, а в Москве — даже выше. У сеньоров — 300–400 тысяч. Самая главная проблема джунов — это отсутствие коммерческого опыта. А именно его и требует большинство компаний. Рекомендую джуниорам без опыта создавать собственные проекты, собирать портфолио и показывать его работодателям. Придумайте задачу и решите её — тогда на собеседовании вы сможете об этом рассказать и показать свой код. Эксперты советуют также заводить профессиональные знакомства: общаться в сообществах, ходить на мероприятия по вашей специализации. Не стоит забывать про обилие онлайнсообществ и чатов в телеграм и соцсетях. Фронтендразработчик, автор телеграмканала «Код и кофе» Для начала стоит посмотреть, какие направления есть в профессии. Без опыта работы непросто определить, что вам больше всего придётся по душе. Однако несколько видео помогут понять, что больше откликается. Далее имеет смысл выбрать хороший обучающий курс. Не пытайтесь освоить всё сразу, не метьте в первый годдва в fullstackразработчики, не изучайте сразу несколько фреймворков. Ваша цель — быстро и качественно освоить базу и устроиться на первую работу, потому что самый полезный опыт и рост идут как раз на реальном проекте. Число вакансий снизилось, резюме — выросло. Но разработка всё ещё в топе популярных профессий. Вакансий в разы меньше, чем для программистов. Но и соискателей тоже меньше. Конкуренция ниже изза высокого порога входа. Язык программирования один фреймворк базовые знания Git база данных SQL или PosrgreSQL вёрстка фронтендеру или API бэкендеру. Computer Science сети операционные системы Kubernetes Docker CICD Git один скриптовый язык PythonBashGo Prometheus, Grafana Jenkins, Harbor, Ansible. От 30 тысяч рублей и выше для джунов для новичков без опыта — бесплатные стажировки. От 40 тысяч рублей и выше для инженеров без опыта. Опыт от года и минимальные знания — от 60 тысяч рублей. 200–300 тысяч рублей (зависит от компании и региона). 200–450 тысяч рублей (зависит от компании и региона). Можно вырасти в менеджера — тимлида, архитектора, техлида. Можно вырасти в менеджера — тимлида, архитектора, техлида или Head of DevOps. Бесплатный курс « Профессии и языки программирования: что выбрать » поможет принять осознанное решение о своём карьерном развитии и понять, что «ваше» — разработка или системная инженерия — или вообще попробовать чтото другое. Программа содержит приятные бонусы: промокод со скидкой на обучение, план развития с ресурсами для поиска работы и карьерную консультацию. Записаться Если ограничения — не про вас, то присмотритесь к Базе знаний по подписке. Cотни хардов и софтов, более 10 000 видеоуроков и доступ к 50 профессиям уже ждут вас. Подписка на 136 месяцев, а первые две недели — бесплатно. Попробовать
15,841
https://habr.com/ru/articles/975200/
habr.com
Earned schedule (ES) или Метод освоенного расписания (думаю это наиболее удачный перевод на русский язык) это метод который даст вам уверенность в том, что проект будет выполнен ровно к назначенному сроку, или, при наличии проблем, покажет отрицательную динамику производительности вашей команды и вовремя подаст сигнал о том, что нужно срочно принимать меры и корректировать работу, чтобы исправить ситуацию. ES является дополнением к методу освоенного объема (EVA), который ранее я описал в этой статье . Если метод освоенного объема вам не знаком, то прежде чем продолжить чтение этой статьи, обязательно ознакомьтесь с предыдущей, т.к. без понимая EVA невозможно будет понять смысл описанных здесь расчетов. Проблема в том, что EVA не смотря на всю свою полезность, не дает представления о конкретных сроках выполнения проекта. Когда именно проект будет завершен? Отстает ли он от плановых сроков или опережает их? Эту проблему исправляет метод Earned Schedule, который выступает надстройкой над Earned Value, все параметры в котором рассчитываются относительно времени. Для дальнейших расчетов понадобятся базовые параметры EVA. За основу я возьму данные тестового проекта, на примере которого разбирал показатели EVA в предыдущей статье. И так, имеем построенный график EVA с текущей позицией сентябрь 2025 года: Далее переходим к базовым параметрам Earned Schedule. Здесь сделаю небольшую ремарку. В отличие от EVA, в методе ES нет устоявшейся терминологии и на разных ресурсах одни и те же параметры могут обозначаться по разному. В этой статье я буду использовать термины с официального сайта https:www.earnedschedule.com . Actual Time (AT) количество времени, которое прошло от момента старта проекта. Planned Duration (PD) плановая длительность проекта. Earned Schedule (ES) освоенное расписание. Т.е. какой объем работы, выраженный во времени, команда реально успела сделать на текущий момент, относительно всего проекта в целом. Чтобы определить ES необходимо провести горизонтальную линию от текущей точки Earned Value (EV) до пересечения с графиком Planned Value (PV). На графике ниже я обозначил все базовые параметры метода Earned Schedule для нашего примера: Таким образом в нашем примере базовые параметры будут следующими: Базовые параметры определены, теперь переходим непосредственно к анализу. Schedule Variance SV(t) это отклонение от расписания. Этот параметр показывает на сколько мы отстаем от графика или опережаем его. Дополнительный признак (t) в обозначении применяется для того, чтобы понимать, что единицей измерения показателя является время, чтобы не путать с аналогичным показателем из EVA метода. Для нашего примера SV(t) 2 6 4. Это означает, что команда проекта на 4 месяца отстает от графика. Положительное значение SV(t) означало бы, что команда работает с опережением расписания. Schedule Performance Index SPI(t) это индекс производительности или же отклонения от расписания. Это параметр аналогичный SV(t), но в данном случае значение будет выражено в виде индекса. SPI(t) 1 команда отстает от расписания проекта. SPI(t) 1 работа выполняется строго в соответствии с расписанием. SPI(t) 1 команда работает с опережением графика. Independent Estimate at Completion IEAC(t) Это независимая оценка сроков завершения проекта. Параметр показывает когда будет завершен проект, если команда продолжит работать в текущем темпе. Для нашего примера IEAC(t) 100,5 20. Это означает, что если команда продолжит работать над проектом в текущем темпе, то на его реализацию вместо 10 запланированных месяцев потребуется 20 и соответственно проект завершится в ноябре 2026 года. Также можно легко посчитать и вторую версию этого параметра. Допустим, команда с текущего времени начнет работать в соответствии с планом и к какому сроку в таком случае будет завершен проект? Для нашего примера расчет следующий: IEAC(t) 6 10 2 14. Это значит, что вместо 10 запланированных месяцев, на реализацию проекта нам потребуется 14 и завершится он в мае 2026 года. To Complete Schedule Performance Index (TSPI) требуемая эффективность для достижения целевого срока. Пожалуй это самый интересный параметр. Он показывает необходимый уровень производительности команды, чтобы успеть завершить проект к нужному сроку. Также исходя из этого индекса можно определить, а достижим ли вообще целевой срок или нужно чтото менять в подходах к работе. где ED Estimated Duration это собственно целевой срок, который вы выбираете самостоятельно. По умолчанию обычно указывают PD, но также можно указать любой другой срок, если вам интересно, например, а получится ли завершить проект раньше. Расчет для нашего примера. Предположим, мне интересно, сможем ли мы завершить проект не за 10 месяцев как планировали, а за 9. В таком случае расчет будет следующим: TSPI (10 2) (9 6) 2,7. Буквально это означает следующее: чтобы завершить проект за 9 месяцев при текущем отставании и оставшемся времени, команда должна работать в 2,7 раз эффективнее, чем работала до этого. Существует шкала для интерпретации значений индекса, которая позволяет определить достижим ли желаемый целевой срок: TSPI 1.00 проект находится в "зеленой зоне", достижение желаемого целевого срока более чем реально. TSPI 1.10 проект в "красной зоне", достижение желаемого целевого срока невозможно. 1.00 TSPI 1.10 проект в "желтой зоне", это ситуация, когда достижение желаемого целевого срока возможно, но наблюдается отрицательная динамика и нужно внести корректировки в работу команды, чтобы проект не перешел в красную зону. В нашем случае значение 2,7 находится в красной зоне, а значит достижение желаемого результата невозможно и нужно пересматривать объемы или сроки проекта. Расчет, который мы только что произвели учитывает уже освоенный объем работы и оставшееся время на выполнение проекта, но не учитывает текущую производительность команды. Есть и вторая формула для расчета TSPI индекса, которая как раз позволяет учесть индекс производительности SPI(t). где K ESPD (определяет долю реально освоенного срока), R EDPD (определяет как изменился плановый срок). Расчет для примера с нашими данными TSPI (1 210) (910 (210)0,5) 1,6. Полученное значение можно расшифровать так: учитывая текущую производительность команды и уже реализованную долю проекта, наша производительность должна составлять 1,6 (вместо 0,5), чтобы успеть выполнить проект за 9 месяцев вместо плановых 10. Значение 1,6 все еще находится в красной зоне и значит достижение желаемого результат, с учетом текущей динамики, все еще невозможно. Скорее всего, после прочтения раздела выше, у вас спутались мысли и появились дополнительные вопросы. Какую формулу и в каком случае нужно применять? Как ими пользоваться? Первая формула используется для текущей оценки ситуации и построения тренда на графике, чтобы вовремя увидеть негативную динамику, когда значение индекса будет приближаться к желтой или красной зоне. Как правило, если на протяжении трех контрольных точек подряд TSPI повышается, это говорит о негативной динамике и значит нужно чтото менять в процессе работы. Это точный математический расчет, который позволит вам вовремя реагировать на изменения в проекте. На графике видно, что начиная с третьего месяца наблюдается негативная тенденция и значение TSPI на протяжении трех последних месяцев приближается к "желтой зоне", а значит, команда должна приложить усилия, чтобы исправить ситуацию. Вторая формула используется для теоретических размышлений и прогнозирования. Результаты по этой формуле получаются более "мягкие", но она позволяет манипулировать двумя параметрами SPI(t) и ED. Благодаря этому мы можем менять параметры и теоретизировать. Например: "А что если производительность будет такая? А если она изменится вот так? А если целевой срок немного подвинуть?". Вторая формула не используется для построения тренда и нельзя опираться только на ее значение не принимая во внимание значение первой формулы, т.к. результат может сильно расходиться и быть слишком оптимистичным. Independent Estimate at Completion (time) (IEAC(t)) Требуемая эффективность для достижения целевого срока Требуемая эффективность для достижения целевого срока Доля освоенного срока относительно планового срока проекта Метод освоенного расписания (Earned Schedule, ES) является мощным инструментом для контроля сроков выполнения проекта, дополняя метод освоенного объема (EVA). Метод ES не только выявляет отклонения в расписании, но и позволяет принимать обоснованные решения: корректировать сроки, увеличивать ресурсы или оптимизировать процессы. Его применение особенно ценно в проектах с жесткими временными ограничениями, где важно своевременно реагировать на негативные тенденции.
8,677
https://habr.com/ru/articles/974232/
habr.com
До работы в Диасофте я двадцать лет был на другой стороне баррикад — работал в руководстве ИТ в банках и страховых компаниях. За это время через меня прошли десятки проектов заказной разработки. Некоторые из них я вспоминаю с гордостью. Некоторые — с содроганием. Недавно мы с коллегами по рынку собрались в эфире телеграмканала для разработчиков Dev QA обсудить, что вообще происходит с заказной разработкой в России. У нам пришли CTO, техлиды, коммерческие директора — люди, которые каждый день варятся в этом котле: Роман Смирнов («Девелоника»), Андрей Почтов (АЭРО), Олег Елманов (Fusion), Яна Шакленина (Outlines Tech), Алексей Сушков («Севен Груп»), Тимур Васильев (Tech Lead, USA), Павел Куликовский (Цифра Банк), Алексей Каньков (Revizto). Говорили о том, почему иногда проекты превращаются в лотерею, хотя технологически все давно выровнялись. Почему заказчик иногда долго ждёт результат — и получает полуфабрикат. Как платформы и стандарты могут снять эту боль. И конечно, про ИИ: когда нейросеть реально «сделает как у Сбера за 5 минут», а когда это просто хайп, который дезориентирует заказчиков. Собрал ключевые мысли из разговора — дальше от третьего лица, чтобы мои реплики не выглядели нескромно. «Для меня всегда было очень рискованно делать заказную разработку без жёстких ограничений. Если я видел контракт вида "вот ТЗ, через год принесём готовый код", то с вероятностью 90% ничего хорошего из этого не выходило», — говорит Александр Сахаров, директор по работе с партнёрами компании «Диасофт». «Приходили люди, приносили полуфабрикат: он не проходил нагрузочные испытания, не проходил контроль информационной безопасности, не проходил функциональное тестирование, интеграционно не вставал, данные туда не заливались. В итоге команда говорила: "Мы уже все деньги проели, пошли работать в другое место, а вы тут сами дальше разбирайтесь". А часто в банках это большие деньги — могло быть потрачено несколько миллиардов рублей. Самая большая боль в заказной разработке — отсутствие прозрачности». Тимур Васильев, Tech Lead (USA), знает эту боль с обеих сторон: «У нас был аналогичный опыт: полностью отдали новый проект на реализацию на несколько лет, а потом нам принесли совершенно не то что нужно. Почти все поставщики пытаются сэкономить: сделать как можно быстрее, забрать деньги и забыть о проекте. Грамотное выстраивание взаимодействия со стороны заказчика, подбор подрядчика — это огромная головная боль. На это мы тратили массу времени. Вероятно, временами нам было бы быстрее сделать всё самим, чем выстраивать такой процесс». Непрозрачность процесса порождает непредсказуемость цены. «Вопрос цены особенно интересен, когда компания выходит на конкурентные закупки: разница в ценах от разных вендоров может отличаться в разы», — отмечает Яна Шакленина, CPO Outlines Tech. «Часто сталкиваемся с тем, что заказчик даёт задачу "оцените проект" без деталей по внутренней инфраструктуре, без выбранного решения. Конечно, цены будут разниться. Мы иногда проигрываем конкурентную основу, потому что предлагаем более качественные решения — хотим как лучше. А вперёд выбегают те, кто говорят: "Сделаем быстро", применяют конструкторы и платформы быстрой сборки, а в итоге всё реализовано на коленках. Самое интересное — заказчик подсаживается на такого исполнителя, потому что деньги уже вложены и нужно доводить продукт до целевого состояния». Алексей Каньков, Senior Backend Developer в Revizto, смотрит на проблему глазами того, кто пишет код: «Когда я вижу задачу, могу сказать примерно срок: две недели плюс π, умноженное на случайное число от 1 до 10. Две недели мне точно хватит, а дальше — как получится. Когда мы делаем чтото кастомное — это "пойди туда, не знаю куда, принеси то, не знаю что". Оценить время, которое потратит конечный исполнитель вроде меня, практически нереально». «Если проследить цепочку, кто же это оценивает, выяснится, что оценивают все, кому не лень, но никто до конца задачу не понимает. Более того, зачастую ТЗ написано так, что если читать строго по форме — там написано "сделай то, не знаю что, но очень быстро"», — добавляет Сахаров. «Как я решал эту проблему? Задавал стандарты производства, которые подрядчики должны были соблюдать. Если ктото делает заказную разработку, желательно, чтобы они работали на понятной мне прозрачной платформе, которая позволила бы закрыть мои риски. Например, если все программисты встали и уехали в другую страну или ушли на двойную зарплату в другое место работы, я мог бы нанять других, и они не сказали бы: "С этим кодом разобраться невозможно, надо всё переписать". В моём понимании реализовывать бизнеслогику в виде чистого кода странно при наличии множества lowcode решений — open source и коммерческих. Нарисованный аналитиками бизнеспроцесс понятен, в нём можно разобраться, переставить кубики. То же касается логики хранения данных: если есть визуальный инструмент для создания и связывания данных с процессами — это проще. Аналогично с юниттестами по определённым правилам, с автотестами на базе нарисованных процессов. Тогда я могу раз в квартал или раз в месяц смотреть прогресс: сколько процессов сделано, сколько покрыто тестами, сколько тестов успешно, сколько экранных форм нарисовано и подвязано к процессам. Могу хоть както это контролировать. Если есть платформа — можно разбить задачи на типовые кусочки: количество процессов, экранных форм, объектов. Внутри каждого объекта у нас в компании есть нормативы. Эти нормативы перемножаются — получается нормативная стоимость. В неё с вероятностью 70% люди должны укладываться или показывать в ТЗ места, которые непонятны или ненормативны. Их можно обсуждать отдельно — получается нормальный разговор. На нашей платформе команда из 4–5 человек — условно, один аналитик, один фронтендер, "половинка" бэкендера, треть девопса и немного тестировщика — выполняет работу, для которой раньше требовалось 10–15 человек. При этом код на выходе полностью открытый, независимый, а вопросы производительности, омниканальности и безопасности решены "под капотом". Это очень важно для окончательной приёмки», — объясняет Александр Сахаров. Алексей Сушков, руководитель блока программных решений «Севен Груп», уточняет границы применимости: «Если у вас простой процесс, lowcode спасёт — можно накидать простой портал на том же Bitrix, где уже готов большой конвейер. Но как только появляется нестандартный запрос — это либо глубокая кастомизация, либо попытка написать чтото рядом. Это всегда поиск баланса, и даже существующие конструкторы оставляют возможность глубокой кастомизации кода, потому что все понимают: всё предусмотреть невозможно». «Технологические проблемы давно решены. У всех опытные команды, технологически мы все примерно одного уровня — можем сделать одно и то же. Но самое главное в заказной разработке — и мы все об этом говорим, но не явно — это коммуникации между исполнителем и заказчиком. От того, как мы строим эти коммуникации, зависит, сделаем ли проект, уложимся ли в срок и бюджет. Системность и методологичность коммуникаций — самое важное», — говорит Роман Смирнов, коммерческий директор «Девелоники», FabricaONE.AI . Андрей Почтов, CTO компании АЭРО, формулирует ещё жёстче: «Все провальные проекты на моём опыте объединяет один факт — коммуникация с заказчиком не была налажена. Я вообще не верю в историю, что можно отдать проект на год и потом прийти, а он готов. Или написать ТЗ, отдать и прийти. Очень важны коммуникация, глубокое вовлечение заказчика, демо — это банальные вещи, но они работают». Но вовлечённость тоже требует меры. «Если заказчик каждый день приходит и спрашивает: "Покажи демо, что изменилось?" — это будет тормозить команду, технические специалисты будут не очень рады такому подходу. Задача, наверное, больше исполнителя — того, кто заключает договор — так выстроить коммуникацию, чтобы к нему и компании было доверие у заказчика. Сразу обозначать прозрачные точки приёмки и правила взаимодействия во время выполнения заказа. На своей практике видел, когда заказчиков пускали вплоть до рабочих чатов, и они задавали много вопросов, которые отвлекали команду разработки. Важно соблюдать баланс между информированием заказчика и его вовлечённостью в процесс», — говорит Павел Куликовский, Tech Lead в Цифра Банке. Яна Шакленина, CPO Outlines Tech, предлагает критерий для этого баланса: «Коммуникации бывают разные — когда это 55 созвонов в неделю, обсуждение на обсуждении, вопрос на вопрос — это очень тяжело. Для каждой коммуникации должно быть понимание: коммуникация ради чего? Коммуникация ради понимания бизнеспроцесса и технологии, которая выбрана для решения. Тогда исполнитель работает более эффективно. В этом случае можно снизить количество созвонов, но и не уходить сильно в стандартизацию». «Заказчик бывает разной степени зрелости и исполнитель тоже бывает разной зрелости. Мы стремимся выбирать зрелых заказчиков, потому что работать с незрелым очень тяжело — заказчик, который ничего не знает про заказную разработку, может вас измучить. Работать с совсем незрелыми — себе дороже. Если есть интересный заказчик, но вы понимаете, что придётся его всему обучить, — это будут инвестиции в повышение его зрелости», — говорит Роман Смирнов, коммерческий директор «Девелоники», FabricaONE.AI . Олег Елманов, генеральный директор и владелец ITинтегратора Fusion, описывает, как выглядит зрелый заказчик на практике: «Сейчас зрелый заказчик уже делает техническую документацию, формирует стек и держит внутри компании ITкоманду, которая сопровождает и развивает проект. У нас часто бывает, что мы приходим после предыдущего подрядчика, и работаем уже с годным кодом. Можем встраиваться, подхватывать и развивать дальше — это нормально работает. Чем опытнее компанияразработчик, тем более зрелого заказчика она берёт в партнёры. Если заказчик не готов работать с нормально выстроенной структурой подрядчика, он идёт на рынок фрилансеров или начинающих интеграторов». Алексей Сушков, руководитель блока программных решений «Севен Груп», предлагает другой подход выращивать: «Мы как эксперты рынка можем не то, чтобы навязывать правила игры, но обучать заказчиков и повышать их уровень зрелости. Если заказчик не понимает, что такое заказная разработка и как ведётся коммуникация, мы берём свой стандарт: "Проектом управляем так, идём так, отчитываемся так". Тем самым стандартизируем свои процессы, делаем их прогнозируемыми. Даже если заказчик не готов по какомуто уровню — подтягиваем его до себя и обучаем. Через это выстраиваются партнёрские отношения и доверие». «Мы на рынке 35 лет, прекрасно видим конкуренцию, разную степень зрелости заказчиков и вынуждены в этом жить. При этом у нас, как у старой консервативной компании, большие накладные расходы. Мы пришли к выводу, что нужна платформа, которая управляет процессами и снимает с людей рутину. Она должна освободить разработчиков, аналитиков и DevOpsинженеров от скучной работы, чтобы они фокусировались на создании ценности. На нашей платформе на базе визуальных моделей автоматически формируется вся бэкендобвязка, прописываются и публикуются API, настраивается APImanagement. Всё это сразу обкладывается юниттестами и делается по единым стандартам. Сюда же подключается искусственный интеллект: скрипты можно не писать кодом, а генерировать промптами на русском языке. Эту платформу используем мы сами и наши заказчики, она не создаёт вендорлока. На ней может работать любая ITкомпания», — говорит Александр Сахаров. «Мы привыкли делить участников на "заказчика" и "разработчика", позиционируя себя как создателей системы. Но на самом деле в заказной разработке создателями любой системы являются оба лица. Заказчик тоже участвует в разработке. Существует даже термин не "разработка технического задания", а "открытие ТЗ" и исследование предметной области, которое происходит совместно. Не всегда понятно, на ком лежит больше ответственности — на нас или на клиенте, — потому что мы делаем продукт вместе», — говорит Роман Смирнов. Тимур Васильев рассказывает, как эта модель работает на практике: «После того как нам принесли совершенно не то, что нужно, компания перестроилась: мы подключили людей из аутсорскоманды внутрь компании — они составляли рабочую силу, а руководили ими наши сотрудники, которые знали, как всё должно работать. Процесс пошёл значительно лучше, особых проблем не было. При этом это всё ещё была заказная разработка». «Со стороны заказчика должен быть бизнесаналитик или функциональный заказчик, которые помогают формировать требования на старте. Чем более размытые требования, тем дороже проект — это всегда так. Если задачу прорабатывают заказчик и исполнитель совместно, результат всегда интереснее. Плюс механизмы отслеживания прогресса: двухнедельные или месячные демо — их можно привнести в любой процесс, водопадный или Scrum, неважно. Плотное взаимодействие с человеком, который понимает бизнес, говорит с ним на одном языке и может объяснить исполнителю, что конкретно надо — это сокращает разрыв между ожиданием и реальностью. Без совместной работы мало что получается. Правильная передача проекта — когда вы бережно передаёте контракт другому подрядчику или заготавливаете документацию, чтобы через год или три ктото пришёл и продолжил развивать — это действительно важно. Этот процесс должен быть включён в разработку. Если заказчик сам этого не понимает, исполнитель должен навязывать эту историю, потому что сменяемость команд никто не отменял. Полная, понятная документация и преемственность — это всегда хорошо», — говорит Алексей Сушков. «Рынок входит в эпоху сильной турбулентности, и это связано в том числе с появлением ИИ — инструментов вроде Cursor, которые ускоряют разработку. С одной стороны, исполнители получают возможность демпинговать, если умеют применять ИИ. С другой — у заказчиков появляется дезинформация. В запрещённых соцсетях любят выкладывать посты про онлайнинструменты с подписью "за 5 минут можно сделать приложение как у Сбера или ТБанка". Технически подкованный человек поймёт, что это нереально. А если человек от бизнеса никогда не сталкивался с ИИ и не представляет, как реализуются сложные приложения, он может поверить. Потом ему называют реальную цену в 20 миллионов, а он говорит: "Вот же, за 5 минут можно сделать, почему так дорого?"» — говорит Павел Куликовский. Алексей Каньков смотрит на ИИ с энтузиазмом практика: «Я очень люблю искусственный интеллект, начал использовать его ещё до того, как это стало мейнстримом. Буквально два дня назад я написал библиотеку полностью с помощью ИИ — грубо говоря, "навайбкодил". Это работает уже сейчас и неплохо, особенно если задавать рамки. Для небольших компаний, которым нужно чтото приземлённое, а не заоблачное, этот момент уже близок. Думаю, в течение годадвух обычный человек сможет получать реальные рабочие результаты. Сейчас я, как программист, могу добиться от ИИ правильного кода. Обычный пользователь пока не сможет сделать это от начала до конца без проблем». Андрей Почтов, CTO компании АЭРО, уточняет границы: «Простые сайты — наверное, да. Я сам активно пользуюсь этим, "вайбкожу", но как бывший разработчик понимаю: если человек не знает, как система должна работать изнутри под конкретный бизнес и нагрузку, он правильно задачу не поставит. Генеративные модели работают на входных данных: что скажешь, то и сделают или не сделают. Поэтому я надеюсь, что работа разработчиков ещё долго останется востребованной, именно потому что заказчики часто сами не знают, как делать». «Рынок через годдва очень сильно переформатируется. Глядя на то, как искусственный интеллект помогает нам уже сейчас, мы понимаем, что скоро это будет совершенно другое качество моделей и иные подходы. Нам уже сейчас приходится перестраивать свои пайплайны и бизнеспроцессы — в аналитике, разработке, тестировании — под использование генеративного ИИ. Эта внутренняя перестройка и повышение зрелости под современные тенденции происходит повсеместно. Через пару лет мы можем собраться и увидеть совсем другой рынок», — говорит Роман Смирнов. Яна Шакленина обращает внимание на парадокс: «Все хотят сократить косты и уменьшить команды, нанимая очень опытных людей, которые будут использовать ИИ для ускорения. Но кто будет внедрять и обучать эти модели? Это большой вопрос, и, к сожалению, не все заказчики это понимают». «Если какието компании с помощью ИИ умудряются снижать ценник за производство фичи с условных 10 миллионов до одного, об этом стоит задуматься. Такие игроки со временем могут не выдержать конкуренции или просто "умереть", потому что качество их работы будет очень низким. И даже если на рынке появилось несколько таких демпингующих компаний, я не уверен, что стоит немедленно снижать свой ценник ниже реальной себестоимости. Качество почти всегда стоит денег», — говорит Тимур Васильев. «Рынок турбулентный. Многие компании эту турбулентность не переживут — я уже вижу, как некоторые не пережили. Мелкие быстро умрут, большим нужно перестроиться: наращивать эффективность, внедрять ИИ, ловить волну хайпа», — добавляет Андрей Почтов. «Та турбулентность, которую сегодня отмечали спикеры, во многом связана с высоким хайпом вокруг ИИ. Но хайп этот не на пустом месте: от технологий есть реальный профит и эффективность, если их использовать грамотно», — говорит Яна Шакленина. «Индустрия через год станет другой по разным причинам: турбулентность, уход компаний, приход ИИ. Но в этом и прелесть нашей сферы — она постоянно меняется и двигается вперёд», — отмечает Роман Смирнов. «Основная проблема в том, что у каждой компании, большой или маленькой, бизнеспроцессы абсолютно разные. У нас нет стандарта или ГОСТа по управлению процессами, бухгалтерией. У всех свои хотелки, свои особенности. Поэтому заказная разработка никуда не уйдёт», — резюмирует Алексей Сушков. А как считаете вы? Поделитесь своим мнением в комментариях или в телеграмканале для разработчиков Dev QA .
17,781
https://habr.com/ru/articles/972948/
habr.com
Пригодность планеты для жизни определяется совокупностью многих факторов. До сих пор наши исследования потенциально пригодных для жизни миров за пределами нашей солнечной системы сосредоточивались исключительно на их положении в «обитаемой зоне» их солнечной системы, где их температура определяет, может ли на их поверхности существовать жидкая вода. В последнее время к этому ограничению добавился ещё и состав атмосферы. Отчасти это связано с техническими ограничениями доступных нам инструментов — даже мощный космический телескоп Джеймса Уэбба способен видеть только атмосферы очень больших планет, расположенных поблизости. Но в ближайшие десятилетия мы получим новые инструменты, такие как Обсерватория обитаемых миров (ООМ), которые будут специально приспособлены для поиска потенциально пригодных для жизни миров. Так что же нам нужно будет искать с их помощью? В новой статье , доступной в препринте на arXiv, Бенджамин Фарси из Университета Мэриленда и его коллеги утверждают, что для того, чтобы оценить шансы образования жизни на планете, мы должны изучить, как она образовалась. Поясним, что ООМ не сможет заглянуть в прошлое — по крайней мере, не дальше, чем позволяет расстояние, которое должен пройти свет от этих миров, чтобы достичь нас. Однако он может получить представление о том, как сформировалась планета, на основе определённых измеримых значений. Др Фарси и его соавторы описывают четыре различных аспекта планеты, которые определяются на ранних этапах её формирования и оказывают большое влияние на её способность в будущем поддерживать сложную жизнь. Первая основная тема — это основной состав. В основном учёных интересуют четыре базовых элемента, из которых состоит порядка 93% типичной планеты земного типа. Это магний, железо, кремний и кислород. В конечном итоге соотношение этих элементов определяет, будет ли на планете тектоника плит, необходимая для поддержания относительно стабильной среды в течение миллионов лет. Удобно, что соотношение этих элементов на планете можно определить, посмотрев на соотношение их в звезде, вокруг которой она вращается — они должны быть эквивалентными, поскольку обе были сформированы из одного и того же доступного вещества. Вторым фактором является обилие «летучих веществ». При формировании планет под летучими веществами понимаются любые элементы с относительно низкой температурой конденсации, при которой не менее 50 % элемента превращается в газ. В газообразном состоянии они гораздо легче уносятся солнечным ветром, поэтому на таких планетах, как Меркурий, сформировавшихся в очень горячей области Солнечной системы, летучих веществ мало, а на Марсе, сформировавшемся дальше от Солнца, их много. Поскольку летучие вещества, такие как углерод, водород, азот, кислород, фосфор и сера (CHNOPS), являются ключевыми ингредиентами для жизни, их наличие на планете является критическим фактором, определяющим её развитие. Однако есть ещё один важный фактор в формировании планет, который оказывает большое влияние на пригодность планеты для жизни, и он обусловлен одним конкретным летучим веществом — кислородом. Наличие кислорода на планете на ранней стадии развития определяет величину, называемую фугитивностью (или летучестью) кислорода. Это играет решающую роль в третьем факторе — размере ядра планеты. Баланс между чистым железом и оксидом железа (попросту говоря, ржавчиной) имеет решающее значение для формирования ядра ранней планеты. Чистое железо, как правило, опускается к ядру, создавая более крупное ядро, тогда как оксид железа попадает в мантию, уменьшая размер ядра. Ядро является одним из основных факторов, определяющих пригодность планеты для жизни, поскольку оно контролирует одну из важнейших защитных функций планеты — её магнитное поле. Большое ядро создаёт сильное магнитное поле, защищающее элементы и потенциальные формы жизни на поверхности планеты от солнечной радиации, в то время как маленькое ядро может создавать слабое поле, позволяя солнечному ветру уносить многие полезные элементы, а радиации — выжигать ландшафт планеты. Последние два фактора создают новый тип обитаемой зоны, согласно которой планета должна иметь достаточно малое количество летучих веществ (особенно кислорода), чтобы сформировать большое металлическое ядро и, таким образом, геодинамо , но в то же время достаточное количество летучих веществ, чтобы на планете после её стабилизации могла зародиться жизнь. Слишком мало летучих веществ — и планета окажется похожей на Меркурий, ядро которого занимает 85% его размера и создаёт сильное магнитное поле, но является бесплодной пустыней. Слишком много летучих веществ — и она окажется похожей на Марс, у которого наблюдается изобилие летучих веществ, но настолько маленькое ядро, что его магнитное поле не защищало его поверхность в течение миллиардов лет, что также позволило ему стать бесплодной пустыней. Земля в этом сценарии имеет как раз нужное количество летучих веществ, что позволяет ей иметь сильное защитное магнитное поле, а также достаточное количество оставшихся летучих веществ для развития и поддержания жизни в течение миллиардов лет. Последним фактором, определяющим пригодность планеты для жизни на ранних этапах её жизненного цикла, является её «тепловая машина». Она приводится в действие одним из двух способов: либо радиоактивными элементами в ядре планеты, либо, как в случае с некоторыми спутниками в нашей солнечной системе, приливным нагревом, который деформирует планету настолько, что её внутренние слои нагреваются. Радиоактивное нагревание мантии в основном обеспечивают три элемента: калий, торий и уран — и, к счастью, два из них легко обнаружить в спектрографе звездыхозяйки. Третий элемент, уран, отследить не так просто, но у него есть эквивалент в виде европия, который астрономы используют в качестве посредника для определения содержания урана. ООМ должен быть способен увидеть три фактора, которые помогут нам понять ранний цикл развития исследуемых им экзопланет. Он сможет найти спектральную сигнатуру звезды, что поможет понять наличие летучих и радиоактивных элементов. Он может обнаружить наличие магнитного поля с помощью метода, называемого спектрополяриметрией, который наблюдает, как световые волны изгибаются этим магнитным полем. Кроме того, он будет отслеживать «вулканическое дыхание» в атмосфере (в основном диоксид серы и сероводород), которое указывает на наличие активных вулканов и, следовательно, тектоники плит на поверхности планеты. Сочетание этих факторов, а не просто оценка местоположения планеты по отношению к «зоне обитаемости» её звезды, является гораздо более комплексным способом оценки её потенциальной пригодности для жизни. К сожалению, это означает, что нам придётся подождать до 2040х годов, чтобы получить истинное представление об истории этих планет. Запуск ООМ запланирован на этот период, хотя, судя по опыту прошлых великих обсерваторий, этот срок может оказаться слишком оптимистичным. По мере продвижения работы над определением целей миссии, её разработчикам и инженерам придётся решить множество вопросов, и определить, что именно должен будет искать наш будущий охотник за планетами.
7,097
https://habr.com/ru/companies/cloud4y/articles/974512/
habr.com
Большие языковые модели остаются загадкой даже для собственных создателей. Исследователи постепенно раскрывают отдельные механизмы: модели используют специфические паттерны активации для различения знакомых и незнакомых людей, оценки правдивости утверждений, кодирования пространственновременных координат. Но знают ли сами модели об этих внутренних представлениях? Способны ли они описать собственный мыслительный процесс? Главный вывод последнего исследования компании Anthropic звучит обескураживающе: современные большие языковые модели, несмотря на всю их сложность, «крайне ненадёжны» в описании собственных внутренних процессов. Недостатки интроспекции — то есть способности к самоанализу — для них остаются нормой. Исследователи Anthropic провели серию тестов, чтобы проверить интроспективные способности LLM. Для выявления наличия «самосознания» у ИИ исследователи применили метод «внедрения концепта». Его суть в том, чтобы сравнить активность искусственных нейронов модели в ответ на разные стимулы — например, на одну и ту же фразу, написанную заглавными и строчными буквами. Разницу между этими состояниями можно представить в виде математического вектора, который условно кодирует определённую концепцию, например, «мысль о громком крике». Затем этот вектор искусственно усиливают внутри работающей модели, как бы «вкладывая» в её обработку заданную мысль, и смотрят, заметит ли она это вмешательство. Результаты оказались противоречивыми. С одной стороны, в некоторых случаях модели действительно демонстрировали проблески осознания. Например, после внедрения вектора, связанного с заглавными буквами, модель могла сообщить, что чувствует нечто, относящееся к словам «ГРОМКО» или «КРИЧИТ», хотя в задании об этом прямо не упоминалось. С другой стороны, и это ключевой вывод, обнаруженная способность оказалась крайне нестабильной и хрупкой. Лучшие из протестированных моделей правильно определяли внедрённый концепт лишь примерно в 20% случаев. Даже при самой благоприятной постановке вопроса успешность не достигала и половины попыток. Эффект напрямую зависел от технических нюансов: если «мысль» встраивалась не на том этапе внутренней обработки информации, признаки «самосознания» полностью исчезали. В других экспериментах, где модель просили объяснить или защитить свой ответ, результаты также варьировались от попытки к попытке без какойлибо последовательности. Таким образом, исследователи делают осторожный, но важный вывод: у современных языковых моделей действительно существует некоторая «функциональная интроспективная осведомлённость». Однако они сразу оговариваются, что эта способность слишком нестабильна, чтобы быть надёжной, и, вероятно, имеет механистическую природу, отличную от человеческого сознания. Главной проблемой остаётся непонимание точного механизма, лежащего в основе этих редких проблесков самоанализа. Учёные предполагают, что в процессе обучения в моделях могли возникнуть примитивные «цепи проверки согласованности», но их работа поверхностная и узкоспециализированная. В итоге, хотя исследование и зафиксировало первые робкие признаки способности ИИ к рефлексии, оно ясно показывает: до скольконибудь осмысленного и надёжного «самопонимания» нейросетям ещё очень далеко. Дальнейший прогресс в этой области будет напрямую зависеть от того, удастся ли понять скрытые механизмы, порождающие эти неустойчивые эффекты. Следите за ITмиром вместе с нами! Ваш Cloud4Y . Читайте нас здесь или в Telegramканале !
3,453
https://habr.com/ru/articles/973666/
habr.com
В предыдущей статье мы заложили фундамент для анализатора сложности, определив ключевые метрики для оценки сложности моделей процессов. Теперь разберем, как превратить эту теорию в реально работающий инструмент. Задача — автоматически разделить модели на три категории: низкая , средняя и высокая сложность. Классический кейс для алгоритмов кластеризации (обучение без учителя). Идея простая: модели с похожими значениями метрик сами собой группируются в кластеры. Простые модели обычно имеют низкие NOAJS и CFC , а сложные — высокие значения этих метрик изза обилия шлюзов. Для решения выбрали алгоритм KMeans — он отлично подходит для такого сценария. Как разработчик продукта и консалтинговая компания, мы имеем доступ к огромному репозиторию реальных моделей оркестрации. В итоговый датасет вошли реальные кейсы и демоприложения, созданные опытными аналитиками из самых разных доменов: медицина, инфраструктура, финансы, производство. Быстрый обзор показал крайне разнообразные стили моделирования: Приложения с огромными BPMNпроцессами и без CMMN вовсе Процессы с eventsubprocess и call activity, но без CMMN Разнообразие нас полностью устроило, и мы перешли к очистке и подготовке данных для анализа. Как и в любом пайплайне машинного обучения, очистка данных оказалась критически важной. Поначалу процессы, состоящие всего из одной активности, выглядели как незначащие и мы хотели их выкинуть. Но при ближайшем рассмотрении выяснилось, что это часто осознанные «делегатные» процессы — например, для очистки данных или отправки писем. Их ценность стала очевидна, и мы оставили их в датасете. Следующий шаг — нормализация метрик, чтобы все измерения вносили равный вклад. Без нормализации метрики вроде NOAJS (которые могут принимать значения от 0 до бесконечности) полностью подавляли бы метрики типа плотности, у которых значения всегда в диапазоне [0;1]. Для решения применили MinMax нормализацию — все значения привели к диапазону от 0 до 1. Это обеспечило сбалансированный входной сигнал для кластеризации. Для первой кластеризации алгоритм настроили на создание ровно трех кластеров , соответствующих низкой, средней и высокой сложности. KMeans требует заранее задать количество кластеров; хотя методы вроде «локтя» (elbow method) помогают подобрать оптимальное число, мы с самого начала ориентировались именно на три уровня. Важно: алгоритм работал полностью автономно — без какоголибо ручного вмешательства и разметки, чтобы исключить предвзятость. Применяем KMeans и разбиваем модели на три кластера. Ограничение KMeans в том, что он не умеет сам назначать кластерам понятные метки («низкая», «средняя», «высокая» сложность). Можно, конечно, задать начальные центроиды вручную, чтобы «подтолкнуть» результат, но это уже нарушает независимость алгоритма. Поэтому интерпретацию и присвоение меток делали уже после кластеризации. Для проверки результата построили график NOAJS CFC. Эта визуализация сразу показала, как модели распределились по спектру сложности, и дала четкое понимание, насколько кластеры получились осмысленными. Анализ графика показал три четко различимых кластера: Исходя из начальной гипотезы — модели низкой сложности обычно не содержат шлюзов и имеют мало активностей — первый кластер был отнесен к низкой сложности. Второй и третий кластеры, демонстрирующие более высокие значения обеих метрик, получили метки средней и высокой сложности соответственно. Такая классификация полностью соответствует ожиданию: чем сложнее модель, тем больше в ней шлюзов и активностей, а значит выше CFC и NOAJS. После того как кластеры были определены, следующим шагом стало выяснение, какие именно метрики вносят наибольший вклад в сложность моделей. Вклад CFC (сложности потока управления) Как и ожидалось, все модели с CFC 0 попали в группу низкой сложности. Однако две модели с CFC 0 оказались в средней группе. При детальном разборе выяснилось, что у них очень высокие значения CNC и каждая из них ссылается более чем на десять других моделей. Это показало: сложность может расти не только за счет шлюзов, но и за счет других факторов. CNC как ключевой признак низкой сложности Коэффициент связности сети (CNC) стал определяющим для моделей низкой сложности. Простые модели почти всегда имеют низкий CNC: чтобы его увеличить, нужно больше потоков на одну вершину, а это обычно делается через шлюзы. Результат полностью совпал с графиком и подтвердил, что CNC — надежный индикатор сложности. Модели с NOAJS 60 — однозначно очень сложные Это было ожидаемо. Любой процесс с NOAJS больше 60 кричит: «Разбейте меня на подпроцессы!». Такие значения сильно засоряют диаграмму и делают модель трудной для чтения и поддержки. Вклад NVAR При анализе NVAR (количество переменных) на графике проявилась интересная закономерность: Модели, отнесенные к высокой сложности, в основном группировались вдоль кривой в области пересечения NVAR и NOAJS. Как только хотя бы одна из этих метрик приближалась к своему максимуму — модель почти всегда попадала в категорию высокой сложности. Эта закономерность одинаково хорошо прослеживалась как для BPMN, так и для CMMNмоделей, где в метрики сложности входила взвешенная сумма всех элементов моделирования. NRC (количество вызываемых подпроцессов) играет важную роль как в BPMN, так и в CMMN. Сложные модели обычно содержат множество компонентов или вызывают большое количество подпроцессов и подкейсов. Однако NRC — не единственный определяющий фактор. Плохо спроектированные модели могут свести все в один огромный процесс без единого вызова подпроцесса. В итоге NRC будет низким, а сложность все равно останется высокой. NRP (сколько раз модель используется другими процессами) вызвал интересный вопрос. Изначально эту метрику не включали в кластеризацию. Однако в BPMNмоделях некоторые процессы выглядели критически важными на уровне всего приложения, но при этом попадали в категорию низкой или средней сложности. Предположение было простым: действительно важные процессы обычно переиспользуются множеством других процессов или кейсов. С точки зрения поиска кандидатов на рефакторинг включение NRP может быть спорным, но для выявления критически важных моделей добавление этой метрики дало весьма полезные результаты. При применении к CMMNмоделям метрика NRP, однако, ломала кластеризацию. Это было ожидаемо: CMMNкейсы часто выступают центральным оркестратором и сами вызывают подпроцессы. В нашем датасете значения NRP почти всегда были низкими (с редкими исключениями), что приводило к высокой энтропии кластеров. В итоге NRP разумно исключили из кластеризации CMMN. Этот анализ показал ограниченность чисто стандартных метрик. Классические исследования обычно рассматривают отдельные BPMN или CMMNмодели, а реальные единицы развертывания (как в Flowable) намного сложнее. В них входят кейсы, процессы, формы, DMN и другие компоненты. Добавление метрик NRP (сколько раз модель используется другими процессами), NRC (количество вызываемых подпроцессов) и NVAR (количество переменных) позволило создать гораздо более полную систему оценки реальной сложности. Исследование начиналось с простого вопроса «насколько сложны наши процессы?» и в итоге дало надежный фреймворк для категоризации и понимания самых разных моделей. В финальной части серии мы разберем, как Анализатор сложности может вырасти из диагностического инструмента в настоящий катализатор более умного, совместного и датаориентированного проектирования процессов. BPM Developers — про бизнеспроцессы: новости, гайды, полезная информация и юмор.
7,467
https://habr.com/ru/articles/973364/
habr.com
Кластеризация представляет собой одну из ключевых и востребованных задач в области машинного обучения. В общем смысле, её можно описать как процесс разделения группы объектов на подгруппы таким образом, чтобы схожие объекты оказались в одной и той же подгруппе. Эта задача актуальна в различных областях, таких как биология, психология, маркетинг, социология, лингвистика и компьютерная безопасность. В прошлом посте мы писали про задачу кластеризации и важность выбора гиперпараметров. В реальной практике выбор и настройка алгоритмов машинного обучения требуют значительных усилий и времени, поскольку эти задачи часто выполняются вручную специалистами. Это подчеркивает необходимость разработки алгоритмических и программных инструментов для автоматизации поиска и создания решений для задач кластеризации. Стоит также отметить, что большинство современных моделей машинного обучения, применяемых к неструктурированным данным (изображения, текст), использует графический процессор. На сегодняшний день не существует полноценного инструментария для кластеризации на графическом процессоре, что стало основным стимулом для создания универсальной библиотеки, способной автоматически решать задачи кластеризации данных различных представлений. Из похожих решений есть autocluster , однако оно не поддерживает мультимодальные данные изначально, что требует отдельной предобработки вне библиотеки. Также стоит упомянуть CuML , работающий на GPU, однако, cuML не предоставляет возможности реализации автоматического машинного обучения без дополнительных компонентов. В этом посте мы представляем GaMAC (GPU accelerated Multimodal Automatic Clustering) система автоматической оптимизации кластеризации с поддержкой с GPU. В библиотеке реализованы следующие внутренние меры: МcСlain Rao (MCR), OS, Banfield Raftery (BR), SYM ; а также внешняя Fмера . Приведенные меры качества были реализованы через библиотеку cupy, как с помощью стандартного API, так и написанием собственных функций ядер. Для реализации автоподбора был разработан и обучен метаклассификатор, где в качестве метанабора данных были отобраны 75 табличных наборов данных из открытого источника OpenML. Для решения задачи подбора гиперпараметров Optuna , реализующая концепцию SMBO. Поиск оптимального решения достигается благодаря последовательному изучению пространства гиперпараметров, сбору статистики по значениям оптимизируемой функции и обучению суррогатной модели для сэмплирования очередной конфигурации гиперпараметров. Под капотом используется модуль обработки данных. Табличные данные обрабатываются в зависимости от типа признака: категориальный или вещественный признак. На уровне признаков происходит нормализация данных, заполнение или удаление отсутствующих значений. Для обработки изображений и текстов была выбрана контрастивная модель CLIP, которая по экспериментам показала наилучшую способность векторизации обеих модальностей. В проекте приводятся все модальности к единому векторному пространству. Преимущество такого подхода заключается в том, что по сравнению с другими подходами при каждом новом наборе данных не придется переобучать модель кодировщика. Табличные данные предобрабатываются этапами и конвертируются в numpy массив. Изображения и текстовые данные отправляются в процессор и в модель CLIP, на выходе получаем эмбеддинги текста и картинки, которые конкатенируются совместно, а далее конкатенируются с вектором табличных данных. В библиотеке реализованы и адаптированы под GPU следующие алгоритмы: KMeans, Bisecting K_Means, DBSCAN, HDBSCAN, BIRCH и Meanshift. В итоге, на сегодняшний день ни одна из ранее реализованных библиотек не обладает AutoML функционалом для задач обучения без учителя, поддерживающих вычисления на GPU и работу с табличными данные, изображениями, текстовыми данными и мультимодальными. GaMAC является одним из первых решений для автоматического решения задачи кластеризации данных различных представлений с использованием графического процессора (GPU). На текущий момент GaMAC доступен как исходный код в репозитории , так и отдельным модулем в тестовом PyPI .
4,085
https://habr.com/ru/articles/974058/
habr.com
В предыдущем посте я не затронул техническую часть — исправляю это. Последние годы мы привыкли к безопасному, предсказуемому минимализму в интерфейсах. Плоские панели, строгие сетки, аккуратные тени — дизайн стал почти невидимым фоном для функциональности. И именно в этот момент Apple решила встряхнуть индустрию, представив Liquid Glass — новый визуальный язык, который возвращает интерфейсам материальность, глубину и немного магии. На первый взгляд это просто красивый эффект полупрозрачного стекла наподобие backdropfilter: blur(...) . Но если копнуть глубже, Liquid Glass — это попытка переосмыслить саму идею взаимодействия с цифровой средой. Между строк читается тезис: интерфейсы снова должны ощущаться, а не только работать. И нравится нам это или нет — тенденция уже начала формировать новые ожидания у пользователей. В этой статье я разберу, как создать подобный интерфейс яблочной компании без использования различных npmмодулей или шейдеров, нагружающих видеопамять устройства. Чтобы повторить стиль, нужно понимать его ключевые элементы: По сути, это — современный reimagining стеклянного неоморфизма, но легче, воздушнее и «живее». Начнём с фундаментального — обыкновенной стеклянной панели. Когда смотришь на Liquid Glass, кажется, что это просто blur с прозрачностью. Но характерная текучесть появляется только тогда, когда фон под панелью искажается неравномерно , с микродеформациями. Обычный blur даёт матовость, но не живость. Чтобы получить такую плату волн, я использую SVGфильтр с displacement map, встроенный прямо в backdropfilter . Это даёт ровно тот эффект, который Apple достигает в своём стекле: фон как будто лежит под тонкой динамической плёнкой. Изучим фрагмент кода, создающий размытый фон наподобие Liquid Glass, который я создал для своего приложения. Теперь рассмотрим каждый блок компонента, особенно SVGфильтра: Карта искажений — обычный PNGшум, закодированный в base64. Это не turbulence и не procedural noise из SVG — они дают слишком «облачный» рисунок. PNG с мелким равномерным шумом ведёт себя куда более натурально, особенно под малым blur. feDisplacementMap использует эту карту как векторное поле: зелёный — по Y Значение scale определяет амплитуду волн. Большие числа не делают эффект агрессивнее — они делают его заметным после blur. Проверка браузера supports not (hangingpunctuation:first) сделана изза того, что в Safari как всегда ничего не работает, и приходится прописывать fallback. Добавлено немного цвета, чтобы сильно не сливалось с задним фоном. Просто добавьте к любому тегу, будь то div , button , класс .bgliquidglass: Эффект знаменитого прозрачного стекла готов! Обязательно не забудьте добавить стили к каждому контейнеру, чтобы текст внутри не сливался с задним фоном. Поддержка в браузерах. К сожалению, на данный момент Safari не поддерживают displacement карты. Не перегружайте интерфейс. На слабых девайсах комплексные фильтры быстро дают по FPS, поэтому используйте эффект аккуратно и избегайте «тотального» блюра на больших областях. Смотрите на реальный масштаб. Один и тот же слой размывается поразному на мобильных и десктопных разрешениях. Обязательно проверяйте качество и читаемость на нескольких формфакторах. Контраст прежде всего. Стеклянные панели легко «съедают» текст — добавляйте тени, уплотняйте подложку, регулируйте цвет полупрозрачности. Эффект — не только украшение. Когда Liquid Glass используется аккуратно, он улучшает визуальную иерархию, фокусирует внимание и повышает комфорт взаимодействия, а значит влияет и на продуктовые метрики. После появления Liquid Glass в интерфейсах iOS 26 тема полупрозрачных, «живых» поверхностей снова стала заметным трендом. Apple фактически нормализовала этот стиль, и пользователи их устройств уже воспринимают его как современный и «естественный». Если продукту нужен актуальный визуальный язык, мягкая глубина и ощущение премиальности — сейчас идеальный момент, чтобы добавить Liquid Glass в дизайнсистему или хотя бы протестировать его в отдельных компонентах.
3,993
https://habr.com/ru/companies/rgs_it/articles/976060/
habr.com
Привет, Хабр! Меня зовут Дмитрий, я руководитель проектов в РГС. Недавно коллеги запустили сервис по интеграции страховки в экосистему умного в коллабрации со spruthub и рассказали, как бы собирали свой первый умный дом с нуля (вот тут ). А я в этой связи решил тоже поделиться опытом, как собирал свою умную дачу на практике в лучших традициях, то есть «от балды». Ни для кого не секрет, что в наши дни термин «умный дом» стал такой же обыденностью современного мира, как электричество, водоснабжение, связь, транспорт. Маркетплейсы и розничные магазины электроники (даже самые маленькие и в отдаленных уголках страны) изобилуют любыми устройствами, прямо или косвенно относящимися к устройствам умного дома. Иными словами, сделать себе умный дом может каждый, как самостоятельно, так и воспользовавшись услугами «профессионалов». Эту статью я задумал не для того, чтобы разглагольствовать о том, как делать умный дом правильно, с планированием, проектированием, рассуждать о протоколах обмена информацией, или, более того, как проектировать жилище и отделку в нем так, чтобы предусмотреть еще и внедрение в нем УД! В интернете можно найти библиотеки на эту тему. Вместо этого, я подумал о том, что будет забавно описать мой личный опыт внедрения технологий умного дома в лучших традициях, то есть наобум, импульсивно и по наитию. Уверен, очень многие люди, как и я, пренебрегают всеми теми правилами и рекомендациями при внедрении УД, посему это должно быть интересно. В статье будет несколько частей, потому что процесс занял у меня не один год. Конкретно в этой обсудим первые шаги: как я пришел к мысли об умном доме и с чего начал этот тернистый путь (первые умные розетки, появление интернета и видеонаблюдения). Disclaimer: Данная статья — не руководство к действию, а описание моего пути и опыта (не везде успешного, кстати). Так что вам, возможно, всетаки стоит предварительно ознакомиться с инструкциями, техникой безопасности, или обратиться к квалифицированным специалистам. Моя история умного дома началась задолго до появления самих «умных домов» — в 1986 году, когда мой дед получил во владении земельный участок. Это чтобы вы понимали, насколько древнее строение мы тут по ходу статьи будем модернизировать. В разные времена разные люди с разной интенсивностью развивали это строение — пристраивали дополнительные комнаты, строили новые хозяйственные постройки, ремонтировали заборы, гараж. Меня это все не особо интересовала года так до 2018, пока мы не приняли волевое решение снести одну из самых обветшалых построек на участке и возвести на ее месте баню (ну а кто не мечтает о шикарной бане на даче?). Для меня это стало своеобразным стимулом дальнейшего развития дома. Вдобавок ко всему, вскоре после этого случился локдаун, во время которого единственным местом, куда можно было выбираться (пусть даже по пропускам) стала дача. Тогда пришло дополнительное осознание того, что это, в общемто, отличная инвестиция, потенциальное место для жизни и работы на удаленеке, а не просто место временного отдыха. Наступил 2021 год локдаун врде пошел на спад. Несмотря на снятие ограничений, стремление при первой же возможности уехать на дачу никуда не исчезло. Я закончил самостоятельное строительство беседки на участке. Начал покупать много дорогостоящих инструментов, в том числе и аккумуляторных. Зимой эти инструменты желательно хранить в тепле, а аккумуляторы от них — просто обязательно. Забирать электроинструменты и аккумуляторы в Москву варианта не было. К тому же появилось желание приезжать на дачу и в холодное время года. Печь в доме топилась нерегулярно. Случалось, что температура в основном доме падала до 0 градусов и даже ниже. Единственным надежным местом, где можно было хранить инструменты и которое можно было отапливать электричеством, была моя комната — относительно новая с точки зрения постройки, теплая, и с самой новой на тот момент электропроводкой. Однако её не всегда можно было согреть печью из основного дома. Дело в том, что от основного дома на тот момент эта комната отделялась холодным коридором, где не было теплоизоляции, и просто так открыть обе двери (в дом и в пристройку) и пытаться согреть последнюю — это, по сути, согревание улицы. С решениями Internet of Things, Smart Home и прочими я на тот момент уже был знаком. Мы делали проект «Умный Офис» с одними ребятами в Москве и на Урале. Однако, памятуя сколько такие решения стоят, мне почемуто вовсе не хотелось лезть в эту историю от слова совсем. Но тут сами обстоятельства не заставили себя ждать. Было решено: нужен температурный датчик для помещения и умная розетка (вклвыкл) для включения и выключения электрического нагревательного прибора. И я впервые полез на маркетплейсы в поисках чеголибо подходящего за умеренные деньги. Каково же было мое удивление и осознание того, насколько я ошибался в расчетах стоимости всех этих решений для потребительского рынка! Один температурный датчик стоил чтото вроде 500 рублей, а умная розетка — порядка 1500. В моем понимании это должно было стоить раз в 10 дороже, учитывая стоимость аналогичных решений для бизнеса. Я приобрел два температурных датчика Mi (Mi Temperature and Humidity Monitor 2) (один — про запас) и умную розетку Яндекс (YNDX0007). Дело в том, что, как выяснилось, есть два основных протокола, по которым работают устройства умного дома: Zigbee и Matter . Для протокола Zigbee требуется либо станция типа «Алисы», или аналога, в то время как протокол Matter работает напрямую с беспроводным роутером. В первом случае «Алису» можно заменить т. н. хабом, который соединяет все умные устройства по протоколу Zigbee, но непосредственно к Интернет подключается сам хаб. В итоге два моих датчика оказались бесполезны. Ну разве что смотреть температуру на них глазами, или подключаться с телефона по Bluetooth, что не очень вязалось с изначальным сценарием. И пришлось купить Xiaomi Smart Home Hub 2 — хаб, который позволяет подключаться к устройствам по протоколу Zigbee и делает их доступными через Интернет. И случилось первое чудо! Два датчика температуры заработали и начали публиковать показания температуры и влажности в режиме реального времени в приложении «Умный дом с Алисой» и Mi Home. Один датчик температуры я установил в своей комнате, другой — в беседке на улице. Однако в первую же снежную зиму (беседка у меня открытая, без даже мягких окон), когда я обнаружил датчик температуры в беседке, весь покрытый снегом, показывающий минус 20 и грустный смайлик на экране, я решил перенести его в холодную террасу. Пусть там тоже холодно, но зато хотя бы нет снега и дождя. Что удивительно, датчик и по сей день функционирует. С подключением умной розетки вопросов не возникло: она подцепилась к Wifi без проблем за минуту. Умная розетка дает возможность включатьвыключать устройства, подключенные в нее, через приложение мобильного телефона, а не выдергивая шнур из розетки, т.е делать это удаленно. Вот, собственно, эта кнопка в мобильном телефоне мне и была нужна. Первое время я следил за температурой в помещении вручную: когда температура опускалась ниже 10 градусов, я включал обогреватель через умную розетку, а когда поднималась выше 15 градусов — отключал (с целью экономии электричества). Позже мне это надоело, и я настроил сценарий. В Алисе это делается проще простого, по принципу «если, то ». Интерфейс простой и понятный, как ножка от табуретки. Требовалось только следить, чтобы нагревательный прибор не работал на высоких режимах — максимум 500700 Ватт. Проводка в моей комнате была относительно новая, но в остальном доме — уже уставшая. Плюс общий электрорубильник вырубался при нагрузке выше 3 киловатт, или при резких скачках напряжения в доме. Электричество в то время приходило практически «напрямую от столба», без промежуточных рубильников, ОЗУ или стабилизаторов. А зимой, когда много таких же «умников» как я приезжали в деревню и врубали все свои «прожорливые» электроприборы, общее напряжение в сети могло падать до 140 вольт, а потом вдруг подскакивать до 250. Это довольно вредно для всех без исключения устройств, включающихся в розетку. В качестве «бэклога» на будущее было решено ставить промежуточные автоматы от столба на ввод в дом и другие постройки, а также устанавливать стабилизатор напряжения. Я долгое время даже думать не мог о том, чтобы на даче появился хоть какойто интернет. Я и компьютер то впервые привез в деревню, уже устроившись на работу, году примерно в 2006м. Да и, честно говоря, такой digital detox имел большое количество плюсов. До сих пор считаю, что деревня — это место, где нужно отключать мозг от бесконечного информационного потока и питаться энергией природы, просторов и вот этого всего. Но прогресс не стоял на месте, и потребность в стабильном интернете для нужд моего ещепокане совсем умного дома тоже сыграла свою роль. Поначалу справлялся мобильный интернет, раздаваемый на умные устройства через роутер. В скором времени, особенно в связи появлением видеонаблюдения (о чем ниже), а также множества других цифровых устройств, которым требовался постоянный высокоскоростной интернет, пришлось раскошелиться на стационарное подключение к оптоволоконному интернету. Мысль о том, что неплохо было бы иметь возможность посмотреть, что там как на даче, находясь в другом месте, посещала меня давно. Все усугублялось еще и наличием неких «приходящих» личностей, у которых был доступ к моему дому (печь натопить, пока меня нет, за хозяйством последить, порядок навести) и которые, как мне казалось, не всегда исполняли свои обязанности как следует. Изучать системы видеонаблюдения не хотелось. Тем более, что в моем понимании на тот момент это были несколько компонентов: как минимум сервер, монитор, провода, IPкамеры, работающие по Ethernetпроводам и за соответствующую стоимость. На момент написания статьи я специально съездил в местный компьютерный магазин в посёлке, комплект оборудования для видеонаблюдения из сервера, 8 камер, проводов, питания и аксессуаров обошелся бы мне в 45 000 рублей. А хотелось какогото (как всегда) quickwina по дешевке. Их используют охотники, натуралисты и просто любители природы, когда хотят запечатлеть проходящих мимо зверей и птиц. Стоила она чтото порядка двух тысяч. Я заказал такую, как потом выяснилось, сначала без какойлибо связи. Она просто писала снимки и видео на sdкарту памяти. Но и этого на тот момент мне показалось уже достаточно. Просматривая впоследствии записи с ловушки, я обнаружил для себя много интересного из того, что происходит на даче, пока меня там нет. Впоследствии мне захотелось, чтобы события, фиксируемые ловушкой, сразу присылались на телефон. И я заказал аналогичную, но уже с симкартой, подключением к сотовой связи и способную присылать MMS и электронные письма. Стоила она уже дороже, порядка 6 тыс. рублей На MMS я разорился в первую же неделю, сотовая же связь работала с сильными задержками (специфика устройства). То есть сообщение о том, что ктото пришел на участок, я мог получить через два дня, что меня не особо устраивало. И тут я очередной раз убедился во всесильности маркетплейсов. По запросу «беспроводная камера уличная» была выдана куча результатов в приемлемом ценовом диапазоне. И была куплена полноценная уличная беспроводная камера брэнда Noname (хотя вроде как она даже называлась Kingstar. Камера крутится, вертится, умеет следить за передвигающимся объектом, не боится воды и морозов, ей не нужны LAN, тюльпаны или еще какие провода, кроме провода питания (хотя я уверен, таки же есть и на аккумуляторах). Подключается к сервису ICSee — это своего рода облачная виртуальная комната видеонаблюдения. Туда можно подключить несколько камер, следить за ними с мобильного телефона или вывести на монитор ПК. Из плюсов можно также отметить инфракрасный режим работы, то есть в абсолютной темноте она будет видеть. Возможность записи как на sdкарту, так и в облачное хранилище (последнее стоит какихто дополнительных, но не криминальных денег), а также работу в режиме интеркома, то есть через нее можно разговаривать как по домофону или использовать в режиме радионяни (или точнее видеоняни). Из минусов: иногда может принимать кучу досок или тень от столба за человека и слать уведомления «Обнаружен посторонний» всю ночь. Ну и пока она не интегрируется с системами Умного Дома, чтобы получать уведомления в едином центре, или настроить сценарий, типа, появляется в будние дни посторонний на участке, а камера ему такая: Возможно, в будущем у Яндекса или других систем УД появится навык интеграции с сервисом ICSee. Сейчас же я использую их поотдельности. Итак, у меня появились «глаза и уши» на даче, чему я был несказанно рад. Первое время я по полдня в день проводил за «мониторингом», пусть даже там никого и не было, и ничего не происходило. Только птицы пролетали, ну и редкие соседские коты наведывались в гости. Далее отдал всё на откуп событиям безопасности, которые присылают оповещение на телефон по факту фиксирования нахождения людей на участке. Было сразу же докуплено еще 4 камеры, чтобы развесить «глаза» по периметру. Как было эмпирически доказано, камера реагирует и на животных тоже (собак, котов), хотя в явном виде это не заявлялось производителем. Наступил 2023 год, и в доме наметился масштабный проект ремонта и модернизации всего и вся. Прежде всего, внутренняя отделка «теплой» части дома, утепление щелей, замена деревянных окон на пластиковые, переделка пола, переделка электропроводки и самое главное — подключение двухконтурного газового котла для отопления помещения и нагрева воды. Я понимал, что своими силами я ничего дельного не сделаю, поэтому все DIYпорывы применительно к масштабным стройкам вдумчиво делегировал бригаде строителей из числа местных. И работа закипела! Каждый день чтото выносилось из дома, разбиралось, ломалось, отдиралось, выпиливалось, выламывалось, после чего заносились новые строительные материалы, и всё начиналось строиться, пилиться, подгоняться и т.д. У меня были «глаза», поэтому я за всем мог наблюдать из первых рядов, даже будучи не в деревне. Также было решено построить еще одну пристройку к дому для расположения большой кухнигостиной и санузла, а также утеплить холодный коридор. От печи было решено избавиться, поскольку предполагался монтаж газового котла для подогрева. Одновременно с этим была вкопана труба водоснабжения из колодца в дом (до этого в доме водопровода не было), а также установлен септик для канализации. В общем, в итоге жилище получилось просторным (порядка 100 кв. м. полезной площади), светлым, тёплым и обеспеченным всеми благами цивилизации. Вместе с этим появились и новые вызовы в плане Умного Дома, а именно: Контроль напряжения на электроприборах, возможность удаленной «перезагрузки» части приборов без потери общего контроля;
14,673
https://habr.com/ru/companies/reactos/articles/973432/
habr.com
Кто давно следит за развитием проекта, помнит, что одним из больных мест ReactOS была поддержка USB. Если на виртуальных машинах ReactOS болееменее работает, то при тестировании на реальном железе с большой вероятностью система выпадала в BSOD изза USBдрайверов. Учитывая, что в наши дни через USB подключаются многие устройства мышь, клавиатура, флешки и пр. Даже если вы использовали PS2 мышиклавиатуры, то простое подключениеотключение флешки могло "уронить" систему. Но, недавно, разработчик The_DarkFire __ внёс ряд исправлений в USBдрайвера, которые исправляют данные проблемы с USB в ReactOS на реальном оборудовании! Кроме прочего, разработчики ReactOS опубликовали новость в X.com . Пулреквест , открытый в прошлом месяце и окончательно принятый в основную ветку вчера, содержит набор улучшений по стабильности драйверов. Согласно описанию, обновление решает следующие задачи: Устранены ошибки, связанные со срабатыванием исключений на отладочных утверждениях (assertions) портов USB, возникавшие при подключении определенных периферийных устройств. Решена специфическая проблема, о которой сообщали владельцы оборудования на базе архитектуры Intel Haswell. Ожидается, что внедренные патчи исправят не только задокументированные сбои, но и могут устранить ряд смежных проблем, с которыми сталкивались пользователи ReactOS на протяжении долгого времени. Данный фикс стал очередным шагом в развитии поддержки реального оборудования в ReactOS. Некоторые пользователи уже делятся результатами тестов и сообщают, что USBстек теперь стал стабильнее. Например, у участника сообщества Zombiedeth получилось успешно загрузить liveобраз ReactOS с SD, через USB 2.0 кардридер.
1,675
https://habr.com/ru/companies/k2tech/articles/972220/
habr.com
Представьте круглосуточную работу в SOC. В понедельник аналитик первой смены расследует вирусное заражение через почту. В среду аналитик второй смены разбирает алерт от NGFW о передаче вредоносного файла. Оба профессионалы, оба закрывают алерты по регламенту. Но они не заметили, что разбирали два шага одной атаки, просто потому, что ключевая улика — хитрое название сигнатуры — затерялась в простыне текстового описания, а не лежала в отдельном поле. Вот он, «цифровой туман». Проблема не в том, что скрипты не умеют сравнивать строки, они не понимают, что HOSTNAME и hostname.corp.local — по сути одно и то же. Они далеко не всегда могут выцепить IPадрес из комментария заказчика. А когда за день сыплются десятки, а то и сотни алертов, искать подобные связи руками — это прямо боль. В поисках лекарства мы пошли на рискованный эксперимент: решили построить систему, которая находит неочевидные связи с помощью LLM. А валидатором выбрали человека, который называет себя «одним из основных хейтеров LLM и нейросетей». Под катом Кирилл Рупасов, технический директор SOC К2 Кибербезопасность , Юлия Гильмуллина, старший инженерразработчик К2Тех, и Татьяна Белякова, ведущий системный аналитик К2Тех расскажут о том, как подружить Gemma, Qdrant и DBSCAN. Как прагматичный инжиниринг, борьба с галлюцинациями и месяцы ручной отладки заставили главного скептика признать: да, в таком виде это действительно работает. Чтобы понять, зачем мы полезли в нейросети, нужно прочувствовать реалии работы в SOC. Ежедневно на наших аналитиков льётся непрерывный поток алертов — вплоть до сотен в день. Каждое сообщение может оказаться инцидентом, каждое нужно разобрать и закрыть за строго отведённое время. Причём несвязанные, на первый взгляд, алерты могут оказаться частью одной цепочки атаки. Ключ к расследованию — артефакты: IPадреса, хостнеймы, хеши файлов, пути, сигнатуры атак. В теории всё просто: если в двух алертах совпадают артефакты, вероятно, что они связаны. Кажется, автоматизация легко решает задачу их сравнения, но в реальности скрипты не справляются. Допустим, вы написали скрипт, который ищет совпадения по именам хостов. Почти сразу выясняется, что данные приходят в десятках вариаций. В одном алерте будет SRVDB01, в другом — srvdb01. Одна система укажет полное доменное имя hostname.corp.local, другая — только короткое hostname. Гдето будет лишний пробел, гдето другой разделитель. Для человека это один и тот же хост. Для скрипта с проверкой if str1 str2 — совершенно разные сущности. Уже здесь теряется значительная часть связей, но это только начало. Самые ценные артефакты часто скрыты в неструктурированном тексте — комментариях и заметках к алерту. Заказчик пишет: «Пользователь видел странное поведение на хосте srvapp03 и получил файл invoice_new.docx». Аналитик дополняет: «Проанализировал хост, обнаружил подозрительный процесс с IP 192.168.1.100». Надёжно извлекать подобные данные регулярками почти нереально. Получается, у нас есть алерт с формальными полями и богатейший контекст в описании, но мы зачастую теряем данные, потому что не можем автоматизировать обработку. Даже если научиться идеально извлекать все артефакты, этого будет недостаточно, потому что логика сопоставления зависит от типа атаки. Возьмём brute force: атакующий с одного IPадреса пытается подобрать пароль к одной учётной записи, причём обычно на одном хосте. А вот при password spray картина другая: злоумышленник берёт один популярный пароль и пробует его с одного IP на множестве разных учёток в разных сервисах. Если просто сравнивать поля «IP источника» или «Имя пользователя», можно прийти к неверным выводам. При сопоставлении только по IP мы не свяжем события brute force, где атакующий меняет адреса. А при сопоставлении только по имени пользователя объединим несвязанные инциденты password spray в один, хотя это могут быть разные атаки на разные группы учёток. Это и есть «цифровой туман»: аналитики видят десятки изолированных событий и не всегда догадываются, что они — звенья одной цепи. Связи теряются между сменами и тонут в текстовых описаниях. При сотнях алертов в день искать эти связи вручную малоэффективно. Особенно если учитывать, что среднее время пребывания злоумышленника в инфраструктуре компании составляет около полугода. Простые скрипты с этой задачей просто не справляются. Значит, нужен инструмент, который понимает контекст, а не просто сравнивает значения полей. Система для анализа алертов должна уметь две вещи: понимать смысл человеческого текста и точно сопоставлять формальные данные. Чтобы реализовать это, мы собрали технологический стек, где каждый компонент решает свою задачу. Первый компонент — локальная языковая модель. Как вы понимаете, передавать чувствительные данные алертов во внешние API — табу, поэтому мы развернули Gemma от Google внутри нашего контура. Чтобы сравнивать смысл текстов, нужно превратить их в векторы — числовые координаты в многомерном пространстве. Для этого мы взяли модель эмбеддингов USERbgem3 . Это модель, которая преобразует отдельные предложения или целые абзацы в векторы из 1024 чисел. Она создана на базе известной модели baaibgem3, которую специально дообучили для русского языка. Векторы нужно гдето хранить и быстро искать похожие. Здесь в игру вступает Qdrant — векторная база данных, заточенная под хранение миллионов векторов и быстрый поиск ближайших соседей. Но самое интересное — алгоритм кластеризации. Изначально мы пробовали простой kNN (поиск kближайших соседей). Он давал массу ложных срабатываний: система находила похожие алерты, которые на деле не были частью одной активности. Тогда мы переключились на DBSCAN. Этот алгоритм работает иначе: он ищет не отдельных похожих соседей, а плотные скопления действительно связанных заявок. Всё, что не входит в такие кластеры, помечается как шум и отбрасывается. В результате точность выросла в разы. Заявка из Service Desk попадает в сервис предобработки. Сначала система проверяет её полноту. Заявка считается пустой и не обрабатывается, если заполнено меньше трёх технических полей, текстовые поля (причина, описание решения, описание, тема) содержат меньше 100 символов каждое или не указана организация. Прошедшие проверку заявки очищаются от HTMLтегов и служебной разметки. На выходе получается чистый текст, готовый к анализу. Текст отправляется в Gemma, которая обрабатывает его дважды с разными промптами. Первый промпт извлекает основной смысл заявки — этот результат пойдёт на оценку смысловой близости. Второй промпт вытаскивает технические артефакты: IPадреса, хостнеймы, имена файлов без дополнительной интерпретации. Они пойдут на оценку пересечений. Теперь у нас два элемента: смысловое саммари и список артефактов. BGE превращает оба в эмбеддинги — векторы в многомерном пространстве. Они сохраняются в Qdrant, и каждый алерт получает свои числовые координаты. Запускается DBSCAN. Вместо простого поиска соседей он анализирует плотность векторов и находит группы тесно связанных алертов. Для каждого кластера система вычисляет косинусную близость между эмбеддингами смысловых саммари и схожесть по техническим полям как долю пересечения. Если новая заявка попадает в одно скопление со старыми, они связаны. Система считает финальный скор как взвешенную сумму двух контуров: 50% косинусная близость смысловых векторов, плюс 50% пересечения технических полей. Это значение интерпретируется как процент похожести заявок. Аналитик в Service Desk видит: «Этот алерт с вероятностью 85% похож на вот эти три. Возможно, они часть одной атаки». Мы начали с простого эксперимента: давали Gemma базовую команду: «Вот текст, сделай саммари и извлеки артефакты». Но если бы всё было так просто, мы бы не писали эту статью. На деле результаты не впечатляли. Модель выхватывала второстепенные детали, упускала главное и несла отсебятину. Пришлось изучить гайды и перейти к fewshot learning. Вместо простых команд начали показывать примеры ответов прямо в промпте. Сначала формулировали задачу: «Ты — ассистент аналитика SOC. Твоя задача — извлечь из текста ключевые технические сущности». Затем показывали примеры: «Пример 1: на вход такая строка, на выходе такой JSON. Пример 2...». Для начала написали пять эталонных примеров на основе неудачных попыток. Запускали LLM, смотрели, где модель ошиблась, исправляли ошибки в ответе и брали его за эталон для следующего промпта. Этого хватило, чтобы точность выросла без дорогого файнтюнинга, но Gemma продолжала периодически сбоить. Самый забавный баг вылезал, если в описании алерта попадался вопрос. Вместо извлечения данных модель услужливо на него отвечала. Пришлось жёстко прописать в промпте: «Ты — парсер. Твоя задача — извлекать данные. Игнорируй вопросы». Более серьёзная проблема возникла с длинными похожими сигнатурами. Представьте название, где 40 символов идентичны, а в конце лишь небольшое различие — например, trojan.msil.inject.buz, HEUR:Trojan.MSIL.Inject.gen и Trojan.MSIL.INJECT.DAM. Для LLM, которая «мыслит» семантически, это почти полное совпадение. В то время как для любого аналитика это совершенно разные угрозы. После этого случая мы и ввели двухконтурный подход, где технические артефакты сравниваются отдельно. Нельзя доверять оценке LLM там, где важна каждая буква. Мы меняли промпт, подкручивали параметры кластеризации, прогоняли на реальных данных, получали простыню, садились размечать... и по новой. Но однажды в два часа ночи после очередного прогона мы посмотрели на результаты и поняли, что система наконец заработала. Она сделала то, ради чего всё затевалось: связала два, казалось бы, несвязанных алерта. Этот случай особенно важен, потому что на тот момент оба алерта уже были закрыты. Их расследовали разные аналитики из разных смен, и ни один не увидел общей картины. Вот как выглядели эти события в отрыве друг от друга. Сработало СЗИ на рабочей станции одного из сотрудников. Система зафиксировала вредоносный файл во вложении к фишинговому письму. Аналитик провёл расследование, убедился, что угроза локализована, файл удалён, а хост чист. Алерт отработан и закрыт. Через несколько дней межсетевой экран зафиксировал передачу вредоносного файла внутри сети. Другой хост, другое подразделение, другой аналитик. Специалист взялся за алерт, провёл расследование, убедился, что передача заблокирована и угрозы распространения нет. Алерт отработан и закрыт. На первый взгляд — независимые события, корректно обработанные разными людьми в разное время, но система связала их с высоким процентом схожести. Почему? Связующая улика затерялась в текстовых описаниях алертов. Это была длинная строка символов: в одном случае из логов антивируса, в другом — из отчёта NGFW. Gemma вытащила эту сигнатуру из текста как ключевой артефакт. Двухконтурный пайплайн сравнил списки и зафиксировал совпадение по критически важному элементу. Система подсветила связь, хотя типы инцидентов — заражение на хосте и сетевая передача — были разными. Отдельные события оказались этапами одной сложной атаки. А теперь признание: Кирилл Рупасов — один из главных скептиков LLM и прочих нейросетей в нашей команде. Я недолюбливаю эти системы за непредсказуемость, непрозрачность и объяснения в духе: «Потому что нейронка так сказала». Алерт с текстом: «У вас инцидент, потому что модель выдала 42» — это не аргумент. С таким не придёшь к заказчику и не проведёшь расследование. И это не говоря о том, что нейросети постоянно ошибаются. Я согласился на этот проект с одним условием: мы проектируем систему по принципам, которые отличают настоящий инструмент от «волшебных AIрешений», наводнивших рынок. Главное правило: наша система никогда не принимает решений. Она не закрывает тикеты, не блокирует хосты, не запускает скрипты реагирования. Её задача — подсвечивать потенциальные связи между алертами. Финальное слово всегда остаётся за человеком. Аналитик проверяет гипотезу системы, используя свои опыт и навыки расследования. Связь реальна или это аномалия? Что она означает в контексте? Машина находит корреляции, человек их интерпретирует. Система не заменяет аналитика, а усиливает его возможности. Есть серьёзный, почти экзистенциальный вопрос, который многие игнорируют: если заменить всех джунов на AI, где через пять лет брать сеньоров для третьей линии? Экспертный опыт не скачаешь из интернета и не выучишь по книжкам. Он нарабатывается через сотни рутинных задач. Так аналитик учится видеть паттерны и развивает «мышечную память» для выявления сложных атак. Пытаясь полностью автоматизировать этот процесс, мы разрушаем кривую обучения. Поэтому наша система спроектирована как копилот, а не автопилот. Она помогает джуну увидеть связи, которые тот мог пропустить, и таким образом ускоряет профессиональный рост. Поскольку в контуре остаётся человек, можно не добиваться стопроцентной точности. Мы дорабатывали пайплайн до тех пор, пока рекомендации не начали приносить пользу чаще, чем отвлекать. Тогда даже Кирилл сказал: «Ладно, можно запускать». Пройдя путь от первых промптов до момента, когда система связала два закрытых алерта, мы сформулировали несколько выводов. Если планируете внедрять LLM, обратите внимание на три вещи. Главный совет, который мы можем дать: не внедряйте AI ради AI. Это сейчас стильно, модно, молодёжно, но без чёткой проблемы вы рискуете получить дорогой инструмент, который никто не использует. У нас была конкретная боль: алерты, разбросанные по сменам, упущенные связи и улики в текстовых описаниях. Под эту задачу мы подбирали инструменты, а не наоборот. AI должен усиливать живой интеллект, а не замещать. Стройте рекомендательные решения, а не автоматы для принятия решений. Иначе, решая тактическую задачу сегодня, завтра вы столкнётесь со стратегической проблемой: где брать опытных сеньоров, если джуны были заменены скриптами? Не существует нейросетей, которые эффективно решают ваши задачи из коробки. Готовьтесь к отладке. Придётся размечать результаты вручную, подбирать примеры для промптов и подкручивать параметры алгоритмов. Это требует времени и терпения, но только так можно добиться результата, которому можно доверять. В итоге наш самый большой успех — не технический, а скорее культурный. Мы смогли на практике доказать, что даже такие непредсказуемые и глючные инструменты, как нейросети, могут приносить пользу, если подходить к ним с изрядной долей прагматизма и здорового скепсиса. И кажется, это и есть самый здравый путь развития AI в кибербезопасности. А вы как думаете?
14,356
https://habr.com/ru/articles/976188/
habr.com
В этой статье я разберу идею DTGMA (Dynamic TaskGraph Masked Attention) пусть будет такое название и сокращение. Есть одна неприятная штука, которую почти каждый ловил на практике, когда пробовал последовательное обучение моделей . Когда в 1997 году в институте проходили нейросети на лабораторной возникла идея, что можно нейросеть использовать как хранилище данных но как оказалось не все так просто ). Вы обучили систему на задаче A. Потом приходит задача B — модель обновляется, и внезапно качество на A падает так, будто A никогда и не было. Так проявляется catastrophic forgetting — катастрофическое забывание. Когда я учил несколько языков (французский, испанский), мне очень помогла методика «Полиглот» Дмитрия Петрова как "ядро", он рекомендовал делать ассоциации к каждому языку чтобы не путать и легко переключаться. Она строится на том, что язык проще усваивать, если у него есть отдельный контекст: Французский — Эйфелева башня, Сена, круассаны, мягкий ритм речи. Испанский — солнце, фламенко, гитара, быстрый темперамент. DTGMA делает то же самое для нейросети , только не на уровне «настроения», а архитектуры : каждую задачу модель обрабатывает в своём маршруте, Это не просьба к оптимизатору «не трогай старые знания». Это запертая дверь . В трансформере почти все задачи используют одни и те же: Оптимизатор не знает, что какието параметры важны для задачи A — он видит только текущий лосс задачи B. Маска внимания закрывает запрещённые пути через в scores. Это переносит проблему с уровня «лосса» на уровень топологии вычисления . Старая задача недоступна физически — ни forward, ни backward не проходят. перенос знаний между задачами уменьшается (если двери закрыты слишком жёстко). Обычно это решается гибридом: часть путей общая, часть — изолирована. доменные модели (медицина юриспруденция финансы); multitenant SaaS (каждый клиент обучает своё без риска сломать чужое); ограничения приватности (нет возможности хранить данные). Когда вы работаете с productionML, главное — предсказуемость . DTGMA делает поведение модели контролируемым за счёт архитектурных ограничений, а не методом подбора коэффициентов. автоматическое определение контекста (routergating), Проект DTGMA — это попытка сделать обучение моделей предсказуемым , когда задачи приходят последовательно. Если идея откликается — тестируйте, предлагайте улучшения, создавайте PR. Для тех кто хочет поддержать проект и отблагодарить, то вы можете сделать это через Tribute буду рад поддержке
2,478
https://habr.com/ru/companies/nanosoft/articles/974496/
habr.com
Одним из ключевых этапов процесса проектирования является формирование ведомостей отделки помещений. При том что в программе nanoCAD BIM Строительство полноценная работа с многослойными конструкциями строительных поверхностей реализована еще не полностью, пользователи уже сегодня могут эффективно решать эту задачу с помощью встроенных таблиц nanoCAD. На практике многие специалисты не обладают достаточным знанием принципов взаимодействия инструментов BIMмодуля и таблиц. Отсутствие специализированного инструмента требует комплексного подхода – понимания логики связей между элементами модели и средствами автоматизации оформления проектных документов. В этой статье мы подробно рассмотрим, как с использованием стандартных инструментов программы nanoCAD BIM Строительство можно создать полуавтоматическую ведомость отделки, сохранив при этом корректность данных и возможность их обновления. nanoCAD BIM Строительство 25.0 предоставляет широкие возможности автоматизации проектирования и выпуска проектной документации. Давайте изучим, как получить информацию, необходимую для формирования итоговой ведомости отделки стен. Для начала создадим помещения с заданной отделкой, из которых в дальнейшем будет извлекаться итоговая информация. С помощью инструментов «Стена» и «Перекрытие» (рис. 1) сформируем конструктивную часть нашей модели. Построим две комнаты, где впоследствии будет выполняться отделка и формироваться данные для ведомости (рис. 2). Для построения конструктивной части нет необходимости указывать дополнительные значения или переопределять параметры стен и перекрытия. Необходимо знать только общую высоту перекрытия, она равна 300 мм, и высоту стен: 2900 мм. Когда конструктивная часть сформирована, перейдем к работе со стенами. Активируем команду Стена и начинаем их настройку для получения отделки. 1 – вкладка Конструкция окна Создание стены позволяет настраивать материалы стен, их отображение в модели, а также приоритеты подрезки. 2 – вкладка Толщина используется для регулирования толщины стен, что обеспечивает более точное отображение отделки. 3 – вкладка Верх стены регулирует привязку стены в пространстве модели, опираясь на уровни сетки осей, представленной в модели. На рис. 4 показано окно работы с материалами проекта в nanoCAD BIM Строительство. Коротко перечислим элементы интерфейса: 1 – команды создания, редактирования и удаления материалов, используемых в проекте, а также инструмент взаимодействия с базой материалов, обеспечивающий возможность загружать из нее материалы, а также добавлять пользовательские; 3 – список материалов проекта по выбранной классификации; 4 – окно настройки выбранного материала с возможностью задания визуализации с применением штриховок. Для начала работы выбираем материал, с которым будем выполнять построение (плитка узорчатая тип 1). Задаем ему параметры, показанные на рис. 5. После внесения основных параметров расположения и отображения следует дополнительно настроить свойства стен, чтобы в дальнейшем была возможность задать условия отбора объектов. Переходим на вкладку Прочие свойства , находим группу параметров Стены и изменяем параметр Функция стены на значение Отделка (рис. 6). Также добавляем стенам параметр номера помещения, который позволит нам в дальнейшем формировать таблицу ведомости отделки стен. Для этого на вкладке Прочие свойства вызываем команду Добавить параметр и вносим в свойства стены параметр Номер помещения . При построении стен будем это учитывать, маркируя помещения, в которых моделируются элементы, номерами 1 и 2. После того как выбран материал, заданы настройки расположения и толщины стены, переключен параметр, можно начать построение. Построим отделочный слой по внутреннему контуру помещений, а также по одной из внешних стен, чтобы затем можно было разобрать взаимодействие сложной конструкции и инструментов заполнения проемов. По результатам построения мы должны получить модель, продемонстрированную на рис. 7. По завершении построения повторяем эту операцию несколько раз с различными настройками расположения и материалами, чтобы получить многослойную конструкцию отделки. Также не забываем о параметре номера помещения, чтобы позже не возникло проблем с формированием таблицы. Настройки следующего слоя выглядят так, как показано на рис. 8. Это будет слой базовой штукатурки. Он наносится на все конструкции стен кроме отмеченных на рис. 9, так как на этих стенах подразумевается отсутствие штукатурного слоя. После выполнения построений модель приобретает вид, продемонстрированный на рис. 10. Дальнейшие действия выполняются по одинаковому алгоритму – исключений при нанесении слоев не предусмотрено. Однако, прежде чем продолжить построение, необходимо создать новый материал, который будет использоваться в следующем слое отделки. Для этого активируем команду Стена и переходим в перечень материалов. В меню материалов выбираем команду Создать новый материал . После активации открывается окно Добавление нового материала , где можно указать группу, к которой будет относиться материал, задать его наименование и уникальный код. Также доступны два варианта внесения параметров: стандартное создание или копирование характеристик из ранее указанного материала перед вызовом команды Создать новый материал . Создаем новый отделочный слой «Шпатлевка гипсовая» и применяем к нему параметры по умолчанию (рис. 11). Параметры по умолчанию выглядят так, как показано на рис. 12, и настраиваются через базу данных. После формирования материала применяем его к следующему слою отделки. Соответственно, настройки следующего слоя выглядят так, как представлено на рис. 14. Затем выполняем построение, получая вид модели, продемонстрированный на рис. 15. Завершив работу со слоем ОТ064, приступаем к последнему слою с настройками, показанными на рис. 16. После построений модель должна принять вид, отображенный на рис. 17. Видимость штриховки слоя ОТ064 обусловлена малой толщиной слоя ОТ052, при приближении модели штриховка предыдущего слоя исчезает. После всех построений, связанных со слоями стены, добавим к модели два дверных проема и посмотрим, как они могут взаимодействовать с полученной нами многослойной конструкцией. В открывшемся окне Создание проема выбираем вкладку Двери и находим проем Дверь однопольная межкомнатная 1 (рис. 19). Устанавливаем проемы в перегородку, мешающие слои стены при необходимости можно скрыть. Полученная модель показана на рис. 20. Но при восстановлении исходного вида со всеми отделочными слоями мы можем увидеть, что проемы не прорезают отверстия в тех стенах, куда они не были встроены напрямую. Чтобы это изменить, следует выделить проем и один раз щелкнуть левой кнопкой мыши (ЛКМ) на одной из его опорных точек (рис. 21). После активации точки нажимаем правую кнопку мыши (ПКМ), чтобы вызвать контекстное меню. Используя находящиеся в этом меню команды Применить проем к и Отключить проем от , мы можем определять, из каких стен нужно вырезать объем, необходимый для корректного размещения проема (рис. 22). Когда упомянутые команды будут применены к слоям отделки, модель примет вид, продемонстрированный на рис. 23. Благодаря этим командам мы сможем учесть объем, забираемый проемами из слоев отделки. Сформировав модель, приступим к созданию таблицы nanoCAD, позволяющей в реальном времени получать данные для ведомости отделки стен. Создаем нестандартную таблицу с одной строкой и тремя столбцами (рис. 25). Из этой таблицы мы сформируем отчет, позволяющий в реальном времени получать данные для ведомости отделки как в целом по модели, так и по каждому помещению в отдельности. Для этого перейдем в таблицу, дважды щелкнув по ней ЛКМ. Чтобы информация поступала напрямую из объектов модели, создадим в таблице отчет с помощью команды Вставить раздел отчета (рис. 26). Исполнение команды добавляет в таблицу строку Шаблон отчета – в ней мы можем задать выборку объектов, по которым будем выстраивать таблицу. Для отбора объектов воспользуемся командой Выбрать исходные объекты (рис. 27). При активации этой команды происходит переход в окно Быстрый выбор (рис. 28). В этом окне доступны варианты отбора объектов, подходящие для различных ситуаций: поиск во всем документе позволяет отбирать объекты по .dwgдокументу в целом, однако стоит учитывать, что при формировании видовых экранов на листах объекты в таблице могут дублироваться; поиск в текущем листе ограничивает область отбора активным листом. Пространство модели также учитывается как один из листов; поиск в прямоугольнике позволяет ограничить область отбора объектов рамкой выбора; поиск в текущем наборе позволяет напрямую отобрать на модели объекты, которые будут участвовать в выборке. Воспользуемся поиском в текущем листе и зададим тип объекта «Стена». Когда тип объекта задан, окно быстрого выбора заполняется параметрами этого типа объектов. Необходимо найти параметр Функция стены , задать этой функции условие «» и выбрать значение Отделка . Таким образом в нашу выборку попадут только те объекты, которые мы использовали в качестве слоев отделки. После этого команда сообщит нам количество объектов, подпадающих под выставленное условие (рис. 29). Нажимаем ОК , чтобы принять условия выбора и закрыть окно Быстрый выбор . По количеству отобранных объектов автоматически сформируется часть с отчетом – в нашем случае 31 строка. Основа отчета сформирована. Задаем через инструменты быстрого выбора параметры элементов, которые попадут в итоговую таблицу. Отбор параметров для выборки настраивается через шапку шаблона отчета (рис. 30). Выбрать необходимый для отображения параметр мы можем, щелкнув ПКМ на ячейке в шаблоне (рис. 31). После отбора параметров столбцы значений по каждому элементу заполняются автоматически, однако по результатам записи могут возникнуть числа такого вида, как показано на рис. 32. Чтобы поправить форматы чисел, необходимо выделить интересующие нас ячейки, щелчком ПКМ вызвать контекстное меню, а затем перейти в свойства ячеек (рис. 33). При переходе в свойства меняем формат ячейки на числовой и задаем необходимое значение точности, отображающее округление до указанного количества знаков после запятой (рис. 34). По завершении работы с отчетом возвращаемся к его шапке. Щелкнув ЛКМ по шаблону отчета, открываем контекстное меню и выбираем команду Добавить раздел данных (рис. 35). При добавлении раздела данных в таблице после строк отчета появляется пустая строка, которую мы можем использовать для получения суммарных значений по каждому типу стены. Прежде чем начать формирование итогового отчета, для упрощения работы отсортируем строки. Чтобы задать правила сортировки и объединения, активируем команду Группировать и объединять (рис. 36). Происходит переход в окно Группировка и объединение (рис. 37). При вызове команды Добавить правило открывается контекстное меню с вариантами настроек. Выбираем правило Сортировать по возрастанию и указываем столбец, по которому будет выполняться сортировка: перетягиваем значение «А» к полю ( выбрать ). Затем добавляем второе правило с тем же типом сортировки и указываем столбец «B». После этого нажимаем ОК и сохраняем правила группировки (рис. 38). Следующим шагом переходим к части таблицы с итоговыми данными и создаем общий отчет отделки. В каждую ячейку строки с данными берем значения из ячеек отчета. Формирование значений в ячейках таблиц nanoCAD происходит по тому же принципу, что и в таблицах Excel (рис. 39). 1 – в первую ячейку вписываем формулу, щелчком ПКМ по ячейке вызываем контекстное меню и выбираем команду Выражение . Происходит переход в окно построения выражений ячейки, куда мы заносим следующее выражение: «fmtText(fmtRaw(A12);fmtRaw(",");fmtRaw(A16))». Выражение такого вида создает текстовую строку с помощью выражения fmtText, а каждое значение fmtRaw заносит текстовое значение из ячейки либо из текста в формате " ". Полученная ячейка показана на рис. 40; 2 – во вторую ячейку добавляем многоступенчатую формулу, позволяющую корректно вписать значения материалов стен: fmtText(fmtRaw(fmtStrike(B11));fmtRaw(fmtStrike(B29));fmtRaw(fmtStrike(B23))) Из не использовавшихся ранее выражений здесь присутствует выражение fmtStrike. Функционал языка Diesel позволяет в таблицах выносить это выражение значения текста на новую строку внутри ячейки, однако он также формирует зачеркнутый вид строки. Следует заключить данное выражение в еще одно: fmtRaw – это позволит вернуть зачеркнутый текст в обычный формат (рис. 41); 3 – в третью ячейку заносим сумму площадей слоев верха и низа отделки, получая итоговое выражение summ(C3:C10;C12:C15) и вид ячейки, представленный на рис. 42. Как результат мы получаем отдел с данными, собранными по отчету. Он продемонстрирован на рис. 43. Итоговая таблица выглядит так, как показано на рис. 44. Чтобы привести таблицу к более корректному виду, выделяем в редакторе таблицы строки с данными отчета, щелкаем ПКМ и выбираем в контекстном меню команду Скрыть строку (рис. 45). Данные строк не исчезнут, а итоговый отдел таблицы будет формироваться корректно. Чтобы вернуть скрытые строки, достаточно добавить новую строку в шапку отчета (рис. 46). После выполнения всех операций с таблицей мы получим результат, отображенный на рис. 47. По аналогичному принципу можно формировать отдельные таблицы для отделки потолков и полов. Добавив разделы с отчетами и указав в них элементы перекрытий, задействованные в отделке пола и потолка, можно получить сводную таблицу ведомости отделки помещений. Представленный вариант итоговой таблицы собирает данные со всей модели. Если требуется формировать ведомости по конкретным помещениям, необходимо использовать параметры поиска при создании выборки элементов для отчета (рис. 48). Примечание. Итоговые номера ячеек могут отличаться от представленных в статье, однако принцип построения итогового отчета от этого не меняется. Количество значений в таблице отчета также может отличаться, но и это не изменяет общую структуру формирования ячеек с данными. Мы рассмотрели, как с помощью инструментов программы nanoCAD BIM Строительство можно сформировать ведомость отделки стен, а также адаптировать методику к созданию аналогичных таблиц по потолкам и полам. создана модель помещений с конструктивными элементами; показан процесс добавления нового материала и его характеристик; сформирована таблица ведомости отделки и выполнена ее настройка; реализованы сортировка и группировка данных отчета; получен итоговый вариант таблицы с возможностью дальнейшей адаптации под различные типы отделки. Таким образом, nanoCAD BIM Строительство позволяет собрать все необходимые данные для формирования ведомостей отделки. Применяя представленный алгоритм, пользователь может получать как сводные отчеты по всей модели, так и отдельные ведомости по каждому помещению.
14,680
https://habr.com/ru/articles/972906/
habr.com
Недавно мои коллегиразрабы в чате удивились: зачем в архитектуре агента (ENA) нужен слой SOMA, симулирующий соматику и ресурсность? Мол, это как аппендикс и неэффективно. Агент должен быть alwayson и постоянно на позитиве. В текущих LLM генерация токена стоит одинаково, генерит ли модель бред или истину. У неё нет внутренней цены ошибки. Вводя слой SOMA (EnergyEntropy budget), мы создаем экономику мышления. Мысль должна быть «оплачена» ресурсом. Когда агент «устал», он физически не может позволить себе сложные спекуляции. Он коллапсирует до простых, проверенных фактов. Это фильтр реальности. Именно так работает наш мозг: уставший человек не философствует, он действует на рефлексах. Это и есть заземление. Если у агента бесконечный ресурс внимания, понятие «приоритет» теряет физический смысл. Всё важно одинаково, то есть не важно ничего. Субъектность возникает только в условиях дефицита. Агент должен выбирать , на что потратить вычислительный такт. На задачу А или задачу Б? Без модуля "усталостьлимит" этот выбор фикция, рандом. С модулем SOMA агент вынужден строить иерархию ценностей. "Я потрачу последние флопсы на задачу User_Critical, а фоновый индекс отложу". Так рождается Воля . Тревогу можно считать нересурсным состоянием, но в кибернетике это называется Feedback с высоким весом ошибки. Состояние тревоги в ENA переключает агента из режима поиска нового в режим защиты текущего. Это не эмоция в человеческом смысле а просто смена стратегии сэмплирования. Агент без тревоги стохастический попугай, который не боится нести чушь. Агент с тревогой уже система, которая валидирует свой вывод до того, как отдать его юзеру. Потому что цена ошибки прошита в его SOMAслое как боль. ENA оптимизирует агента под метрику "адекватность и связность», сохраняя его производительность. Чтобы ИИ понимал человеческий контекст, он должен быть изоморфен человеческой системе ограничений. Нельзя понять цену времени, если ты живешь вечно. Нельзя понять цену связи, если тебе ничего не стоит общаться со всеми. Нельзя понять цену ошибки, если ты ничем за нее не ответишь.
2,075
https://habr.com/ru/companies/bercut/articles/970442/
habr.com
Все чаще отдел информационной безопасности Bercut при сканировании сторонних или наших библиотек, как минимум, не рекомендует их к использованию внутри компании. А то и вовсе запрещает. На первый взгляд код может выглядеть безопасным, однако мне захотелось разобраться, какие именно ошибки программирования способны снизить защищенность системы. Почему сканеры безопасности придираются, и насколько серьезны указанные ими проблемы? В статье разобрала популярные ошибки программистов, которые злоумышленник может использовать для взлома системы. Вот что получилось. Какими бы скучным не казались ошибки работы со строками, они лидируют в списке эксплойтов программного обеспечения. Обойти их стороной было бы преступлением. Правило: не использовать strcpystrcatsprintfgets и прочие небезопасные Сфункции, предпочтение отдавать std::stringstd::vector и snprintf со строгими пределами. Как это влияет: при наличии возможности записывать данные за пределами буфера можно добиться исполнения произвольного программного кода или отказа в обслуживании. Переполнение буфера: злоумышленник вводит строку длиной более 64 байт, например, 80 символов. Перезапись адреса возврата. В стеке за буфером находятся: Адрес возврата (4 байта) — адрес в памяти, куда процессор должен вернуться после завершения выполнения функции или подпрограммы. При переполнении эти значения перезаписываются. Контроль выполнения: если злоумышленник включит в строку машинный код (например, shellcode) и укажет адрес возврата на этот код, процессор начнет его выполнять. Если shellcode расположен в начале строки, адрес возврата устанавливается на buffer , и после завершения vulnerable управление передается на вредоносный код. Правило: не подставлять пользовательский ввод в сам формат. Использовать строку формата как константу, а пользовательский ввод — как аргумент функции. Иначе злоумышленник может ввести специальные символы (например, %x , %n , %s ), которые заставят функцию форматирования читать или записывать данные из памяти, что может привести к следующим последствиям: Чтение произвольных областей памяти (утечки конфиденциальных данных: пароли, ключи, приватная информация). Запись произвольных данных в память (повреждение переменных, изменение логики работы программы). Выполнение произвольного кода (RCE — удаленное исполнение кода), что позволяет полностью контролировать систему. Выход приложения из строя (крах, падение процесса). Программа выведет содержимое стека, что приведет к утечке информации. %n запишет число выведенных символов (4, «XYZW») в адрес, который находится в стеке (потенциально перезапишет переменную или указатель), что приведет к падению или неопределенному поведению программы. Если токен или идентификатор сессии генерируется с помощью rand() или другого нестойкого генератора случайных чисел, злоумышленник может предсказать или перебрать возможные значения токена и получить несанкционированный доступ к сессии. Пример правильной генерации криптографически стойкой случайной последовательности на основе Crypto Library: Злоумышленник последовательно пробует возможные значения токенов, пока не найдет подходящий. Если токены легко предсказать (например, если они основаны на времени или инкрементных номерах, как у rand()), атакующему понадобится немного попыток, чтобы подобрать действующий токен и «войти» с правами другого пользователя. Если токен — это просто rand(), то злоумышленник знает диапазон возможных значений, а если источник случайности известен (например, время запуска сервера), то подобрать токен становится еще проще. Вы можете протестировать возможность проникновения с помощью brute force. Сам процесс часто называется пентестом или пентестингом. Несколько ресурсов, которыми вы можете воспользоваться для пентеста своего приложения или системы: Использование указателя после освобождения памяти (UAF) составляет около 48% серьезных уязвимостей в C, если судить по данным анализа службы инфобезопасности Google Chrome. Уязвимость дает злоумышленнику контроль над выполнением программы, особенно при использовании виртуальных таблиц. В качестве правильной, стойкой к уязвимостям, альтернативы рекомендуется применять стандартные умные указатели, такие как unique_ptr, shared_ptr, либо свои аналоги, которые управляют памятью в конструкторахдеструкторах. Пример плохого кода: после освобождения памяти технически можно использовать указатель на освобожденный объект и получить краш с большой вероятностью. Если же использовать умные указатели, то задумываться об освобождении выделенной памяти требуется минимально. Вероятность использовать невалидный указатель и получить краш сводится к минимуму. В строке 12 утечка происходит по адресу кучи — области памяти, предназначенной для динамического выделения и освобождения памяти во время выполнения программы. Утекший адрес кучи поможет злоумышленнику легко вычислить размещенный адрес сегмента кучи. CC допускает множество форм неопределенного поведения (UB, undefined behavior). UB — это и переполнение знаковых целых чисел, и разыменование нулевых указателей, и доступ за границы массива, и использование неинициализированных переменных. Решение всегда разное, главное подходить к коду бережно. Например, использовать size_t для размеров и индексов, инициализировать данные, использовать безопасные stl контейнеры и санитайзеры. Это выражение вызывает UB, так как i модифицируется ( i ) и используется в присвоении без точки следования между действиями. Компилятор может оптимизировать такой код неожиданным образом, например, игнорируя часть операций. Это UB, даже если значение не используется. Компилятор может удалить весь блок кода, содержащий такое выражение, так как оно не определено стандартом. Переполнение int — это UB, в отличие от беззнаковых типов, где оно определено как циклическое. Суть плохого кода в примере ниже в том, что сервер не закрывает сокет после вычитывания данных и не освобождает ресурсы (дескриптор, память): Как можно использовать такой эксплойт в коде? Злоумышленник пишет простой код клиентского приложения, который так же будет открывать множество TCPсоединений и не закрывать их. Результат — исчерпание ресурсов сервера и отказ в обслуживании. Чтобы закрыть уязвимость для злоумышленника достаточно просто закрыть close(newsockfd); сокет после прочтения данных. Отслеживать уязвимости кода — важная задача. А осуществлять ее можно даже с помощью несложных опций компиляторов. Обнаруживает использование неинициализированной памяти, которое может привести к утечкам или непредсказуемому поведению. Wuninitialized — использование неинициализированных переменных Wsigncompare — сравнение знаковых и беззнаковых типов Включает защиту от переполнения стека, добавляя контрольные значения в локальные переменные. Удаление потенциально опасных функций, таких как gets Мы разобрали пять ярких уязвимостей кода С, которые могут осложнить работу программисту. Рассмотрели варианты того, как такие ошибки избежать; я поделилась тем, как можно ловить эксплойты с помощью опций разных компиляторов. Если комуто этот материал окажется полезен, буду рада.
7,064
https://habr.com/ru/articles/975204/
habr.com
В «Дзене Python» (PEP 20) есть знаменитая строчка: «Должен быть один — и, желательно, только один — очевидный способ сделать это» . Однако, когда дело доходит до форматирования строк, Python, кажется, сам нарушает свои же заповеди. Оператор % , метод .format() , fстроки, класс Template ... За годы развития языка наслоилось столько инструментов, что даже опытные разработчики иногда пишут код «по инерции», используя конструкции десятилетней давности там, где можно сделать проще и быстрее. Новички же часто путаются в синтаксисе, не понимая, почему в одном туториале используют %s , а в другом — фигурные скобки. Но форматирование — это не просто вопрос вкуса или «сахара». Это вопрос читаемости кода, производительности и безопасности. В этой статье мы пройдем путь эволюции работы со строками в Python: от «древнего» Cstyle форматирования до современных fстрок. Разберем, что скрывается «под капотом» миниязыка форматирования (Format Specification MiniLanguage), замерим скорость разных подходов и выясним, в каких редких случаях новомодные fстроки — это плохая идея. Исторически первым способом форматирования в Python был оператор % . Если вы пришли из языка C (или любого другого, наследующего его синтаксис), вы сразу узнаете старый добрый printf . Суть метода проста: строка выступает в роли шаблона, где с помощью спецификаторов типа %s (строка), %d (целое число) или %f (float) мы размечаем места для подстановки переменных. Казалось бы, всё работает. Вы даже можете управлять точностью чисел с плавающей точкой, что было большим плюсом в ранних версиях: Несмотря на привычность для сишников, этот стиль быстро показывает свои зубы, как только проект вырастает за пределы «Hello World». 1. Проблема читаемости (Verbosity) Когда переменных становится много, строка превращается в месиво. Вам приходится постоянно бегать глазами из начала строки (где плейсхолдеры) в конец (где переменные), чтобы понять, что куда подставляется. Ошибка в порядке аргументов в кортеже гарантирует, что User_ID окажется на месте Balance , а Balance — на месте имени. 2. «Ловушка кортежа» (Tuple quirks) Оператор % ведет себя поразному в зависимости от того, сколько аргументов вы передаете и какого они типа. Это классический источник багов. Если вы передаете один аргумент, оператор ожидает просто значение. Если несколько — обязательно нужен кортеж. Но что, если ваш единственный аргумент сам по себе является кортежем? Результат: TypeError: not all arguments converted during string formatting . Python пытается распаковать data и найти внутри строки три плейсхолдера %s , а находит только один. Чтобы это починить, приходится писать уродливую конструкцию — кортеж из одного элемента, который содержит кортеж: Вердикт: Форматирование через % всё еще валидно и поддерживается (его не выпилят из языка, чтобы не сломать миллионы строк легаси). Однако в новом коде его использование считается моветоном. Единственное исключение — модуль logging , но об этом мы поговорим чуть позже. Для всего остального Python придумал коечто получше. С выходом Python 3.0 (и бэкпортированием в 2.6) разработчики решили кардинально переосмыслить подход к строкам. Новый метод str.format() был призван стать тем самым «единственным очевидным способом», заменив устаревший оператор % . Синтаксис сместился от Cстиля к использованию фигурных скобок . Главное идеологическое изменение: теперь форматирование — это метод объекта строки, а не бинарная операция. .format() принес несколько киллерфич, которые заставили многих вздохнуть с облегчением. 1. Управление индексами Вы больше не обязаны передавать аргументы в том же порядке, в котором они идут в строке. Более того, один и тот же аргумент можно использовать несколько раз без дублирования в вызове метода. 2. Именованные аргументы (Читаемость) Это решило главную проблему % форматирования. Теперь можно явно указывать, какая переменная куда подставляется. Код стал самодокументируемым. 3. Доступ к атрибутам и элементам Внутри фигурных скобок можно обращаться к полям объектов или ключам словарей (обратите внимание: кавычки для ключей внутри не нужны). 4. Распаковка словарей ( kwargs ) Пожалуй, самая мощная фича этой эпохи. Если у вас есть словарь с конфигурацией или данными из БД, вы можете просто «распаковать» его внутрь строки. Казалось бы, идеал достигнут. Но со временем вскрылся главный недостаток .format() — его многословность . Логика формирования строки разорвана: шаблон находится слева, а данные — справа, часто на другой строке или вообще за пределами видимости экрана. Если вы хотите вывести значение переменной user_name , вам приходится писать её имя дважды: Этот синтаксический шум утомлял разработчиков, особенно в Perl или PHPподобных скриптах с множеством вставок. Сообщество требовало лаконичности. И в Python 3.6 их мольбы были услышаны. В 2016 году с выходом Python 3.6 и принятием PEP 498 жизнь питонистов разделилась на «до» и «после». Появились «Formatted String Literals», или просто fстроки . Идея была радикальной: убрать вызов метода .format() и позволить встраивать выражения Python прямо внутри строковых литералов. Достаточно добавить префикс f перед кавычками. Главное отличие fстрок от .format() в том, что содержимое фигурных скобок — это не просто ключи для подстановки, а полноценные Pythonвыражения , которые вычисляются во время выполнения (runtime). Вы можете делать арифметику, вызывать функции и методы прямо внутри строки: Если вы до сих пор пишете print("var ", var) для отладки, у меня для вас хорошие новости. Начиная с Python 3.8, в fстроках появился спецификатор , который автоматически разворачивает выражение в текст имя_переменной значение . Это экономит огромное количество времени при поиске багов и просмотре логов. Кажется, что fстроки решили все проблемы. Синтаксис чистый, работает быстро (да, fстроки быстрее, чем % и .format() , так как парсятся на этапе компиляции байткода). Однако, хотя сам механизм подстановки стал интуитивным, правила форматирования значений (сколько знаков после запятой? как выровнять текст по центру? как вывести дату в ISO формате?) остались прежними и часто вызывают ступор. Новички часто гуглят каждый отдельный случай ( python format float 2 decimal places ), вместо того чтобы один раз разобраться в спецификации MiniLanguage. Если вы хотите не просто читать теорию, а набить руку на реальных задачах и тестах по всем методам (от старого % до продвинутых fстрок), рекомендую пройти бесплатный интерактивный курс по форматированию строк . Там эти нюансы (выравнивание, типизация, вложенные fстроки) разбираются последовательно, с автопроверкой кода. Это помогает закрепить материал и перестать «плавать» в синтаксисе, когда нужно вывести красивую табличку в консоль. Многие останавливаются на том, что просто вставляют переменную в строку: f"value" . Но настоящая мощь Python скрывается за двоеточием — : . Именно после него начинается Format Specification MiniLanguage . Это специальный синтаксис, который позволяет управлять представлением данных без написания лишнего кода (вроде round() , rjust() или ручного перевода в бинарный вид). Общая структура выглядит так: [имя_переменной] : [заполнитель][выравнивание][ширина][.точность][тип] Звучит страшно? Давайте разберем самые полезные кейсы. Забудьте про round(num, 2) . Форматирование чисел должно происходить в момент вывода, а не изменения данных. Если вы пишете CLIутилиты, логи или просто хотите вывести красивую таблицу в консоль, вам не нужно считать пробелы вручную. Самое приятное: перед знаком выравнивания можно указать символзаполнитель . Нужно вывести байтовое представление числа или HEXкод цвета? Функции bin() и hex() добавляют префиксы 0b и 0x , которые часто приходится обрезать. Fстроки делают это изящнее. Мало кто знает, но объекты datetime поддерживают протокол форматирования напрямую. Вам не нужно вызывать метод .strftime() , вы можете писать форматную строку прямо внутри фигурных скобок. Спецификаторы тоже могут быть динамическими! Вы можете вложить одну fстроку в другую (звучит как начало фильма Нолана, но это работает). Minilanguage превращает рутинную работу со строками в декларативное описание «как это должно выглядеть», оставляя код чистым. Когда fстроки только появились, скептики говорили: «Зачем нам еще один способ, если есть .format() ?». Главным аргументом (помимо читаемости) стала скорость. В отличие от .format() , который является вызовом метода во время выполнения, и % , который требует проверки типов, fстроки — это часть грамматики языка . Интерпретатор парсит их на этапе компиляции в байткод и оптимизирует сборку строки. Давайте проверим это на практике с помощью модуля timeit . Вывод: Fстроки работают почти в 2 раза быстрее , чем .format() , и ощутимо быстрее старого стиля. В высоконагруженных циклах это может иметь значение. Но всегда ли их стоит использовать? Это самая частая ошибка даже у мидлразработчиков. Стандартный модуль logging в Python был написан очень давно и использует «ленивую» интерполяцию. Если у вас уровень логирования выставлен на INFO или WARNING , то сообщение debug не должно попасть в лог. Однако, так как вы использовали fстроку, функция heavy_computation() всё равно выполнится , чтобы сформировать строку, которую логгер затем просто выбросит. Вы тратите CPU впустую. Примечание: это касается только передачи тяжелых функций или объектов. Если вы просто выводите переменную, разница в производительности пренебрежимо мала, но правила хорошего тона рекомендуют использовать нативный стиль логгера. Никогда, ни при каких обстоятельствах не используйте fстроки для формирования SQLзапросов. Решение: Используйте параметризованные запросы вашей библиотеки (psycopg2, sqlite3 и т.д.). Так же еще появились tстроки которые решают данную проблему. До недавнего времени использование кавычек внутри fстрок было болью. Если вы хотели обратиться к ключу словаря, вам приходилось чередовать одинарные и двойные кавычки. В Python 3.12 это ограничение сняли. Теперь вы можете использовать одни и те же кавычки любой вложенности, парсер стал гораздо умнее. Но если вы поддерживаете код для старых версий интерпретатора, имейте это в виду. История форматирования строк в Python — это отличный пример того, как язык развивается в сторону удобства человека, а не машины. Мы прошли путь от жесткого Cstyle наследия к элегантным и быстрым fстрокам. Краткая шпаргалка (Rule of Thumb) для современного питониста: По умолчанию используйте fстроки. Это стандарт дефакто для Python 3.6. Они быстрее, чище и читаемее. Используйте .format() , если строка шаблона существует отдельно от данных (например, загружается из конфига или базы данных) или если вам нужна совместимость с очень старыми версиями Python. Используйте % (или стиль .format ) только в модуле logging для отложенной интерполяции, чтобы не нагружать процессор лишней работой. Никогда не используйте форматирование строк для SQLзапросов. Это прямая дорога к SQLинъекциям. В конечном итоге, выбор инструмента должен зависеть от читаемости. Код пишется один раз, а читается десятки. Используйте мощь MiniLanguage, чтобы убрать лишнюю логику из кода, но не злоупотребляйте вложенными конструкциями, если они заставляют коллег (или вас через полгода) морщить лоб. Пишите код так, чтобы он был понятен. Ведь, как гласит всё тот же Zen of Python: Readability counts . P.S. Если статья была полезной, не забудьте прогнать свои старые проекты через линтеры — возможно, там накопилось много мест, которые можно ускорить и упростить одной лишь заменой .format() на f"" .
11,471
https://habr.com/ru/articles/975914/
habr.com
Будем стараться делать хорошо, плохо само получится (С) Любите ли вы NMEA0183, как люблю его я? Умеете ли? Практикуете ли? Хочу поделиться универсальным, модульным, гибким, шустрым и исключительно нетребовательным к ресурсам парсером для работы с NMEAсообщениями в Embedded. Под катом подготовил для вас рассказ о том, как это работает, как использовать, онлайндемку с пошаговым выполнением алгоритма и подсветкой выполняемых веток кода, а в качестве бонуса еще один парсер NMEA, я бы даже сказал уберпарсер но уже не для Embedded. Просто напомню, что NMEA0183 это ASCIIпротокол, т.е. сообщения представляют собой, или, точнее рассматриваются как строки из ASCIIкодов. Вот пример сообщения: Сообщения всегда начинаются с символа , а заканчиваются rn ( 0x0D 0x0A ). Перед концом сообщения есть необязательное поле контрольной суммы, которое начинается со знака и содержит два шестнадцатеричных символа побайтное xor всех байт между и исключительно. Внутри сообщение устроено несложно это просто список значений, разделенных запятыми. При этом самое первое поле это идентификатор источника иили сообщения. Каждому сообщению строго соответствует формат полей тип данных и как их интерпретировать, например, стандартное сообщение MTW Mean Water Temperature, идентификатор источника WI Weather Instrument, первое поле после заголовка содержит вещественное число, соответствующее измеренной температуре воды, а второе поле содержит единицы измерения, в данном случае C градусы Цельсия. Сообщения бывают стандартными, как в примере выше и "проприетарными", у которых после следует символ P с трехсимвольным идентификатором производителя (Manufacturer ID) и собственно идентификатором сообщения, которое бывают очень разными и зависят от прихотей производителя. Я нахожу этот протокол исключительно удобным и почти во всем нашем оборудовании его применяем. Вот например, чтобы при помощи гидроакустического модема uWave запросить , скажем глубину другого такого же модема применяется команда такого формата: Если требуется передавать в рамках протокола строки или просто массивы байт, это также несложно сделать. Единственное ограничение на строки они не должны содержать символы, используемые протоколом для управления: , , , , и символы с кодами 0x0D и 0x0A . Изначальный стандарт накладывает ограничения на максимальную длину сообщений, если мне не изменяет память, в 82 символа, но совершенно никто не сможет вам помешать использовать для своих целей сообщения большей длины, хотя, конечно, стоит помнить о восьмибитности и некоторой "ущербности" применяемого алгоритма контрольной суммы всетаки побайтовый xor не самая стойкая к коллизиям конструкция. Можно подумать, что связь по проводам итак достаточно надежная, но нам в работе очень часто приходится передавать такие сообщения, например по радио обычному, 433 МГц в режиме прозрачного канала, где никто вообще никаких гарантий ни на что не даст. Задача в целом выглядит так, что надо бы из входного потока байт выбирать целые сообщения по признаку начала и конца, определять тип сообщения и согласно известному списку параметров разбирать их поочередно. Можно выбирать только те, которые интересуют например, широту и долготу или текущее время. По сути очевидная реализация линейный автомат, который: Можно сделать этот простейший "велосипед", можно взять чтото готовое, например, TinyGPS или microNMEA там большое комьюнити и наверное все все постоянно проверяют и дорабатывают, и если нужно просто распарсить данные от GNSSприемника, то наверное проще взять чтото из этого. использование strcmp , strtok и прочих подобных (TinyGPS). Хоть там и нет явного выделения памяти, и в целом вопрос дискуссионный, но лучше знать наверняка, что происходит со стеком, чем не знать; Невозможность разбирать только то, что меня интересует: если вы сталкивались обработкой данных с GNSSприемников, то наверняка знаете, что они вываливают огромную простыню данных, например, параметры DOP, список используемых в решении спутников и их эфемериды. Эти данные не всегда нужны и если решать задачу в лоб, то можно очень много времени тратить на разбор всей этой массы данных; И главная причина мне нужен универсальный парсер, я сам хочу формировать и разбирать свои сообщения. Т.е. по сути все равно придется делать чтото свое. И если делать велосипед, то надо делать хороший. Первая идея нашего парсера состоит в том, что выбираются только те сообщения, которые нужны пользователю. Причем решение принимается как можно раньше: как только у нас уже есть полный идентификатор сообщения мы можем принять решение о том, анализируем мы это сообщение дальше или нет. Например, если меня интересуют только сообщения, скажем, RMC (здесь и далее "" означает, что нам не важен Talker ID GN, GP, GL и пр.) и GGA, то приняв GSA парсер уже должен прекратить обработку, перейти к ожиданию начала следующего сообщения и не тратить время. А еще, возможно, мне захочется прямо на лету включить или отключить обработку какоголибо сообщения, кто знает? Такая возможность тоже вполне пригодилась бы. Напомню, что речь идет про Embedded нужна надежность и низкие накладные расходы. Значит мы не будем использовать динамическое выделение памяти только статический буфер. Взглянув на сообщения NMEA можно заметить одну деталь: все стандартные сообщения имеют фиксированный размер Talker и Sentence ID 2 и 3 байта. А как насчет того, чтобы идентификатор сообщениях хранить не в виде строки, а в виде 24битного числа? И даже не только хранить, а искать, сравнивать. Напомню, что сначала нам нужно как можно раньше отсечь сообщения, которые нас не интересуют. Поэтому первые шаги алгоритма могут быть такие: накапливаем три байта и записываем их в uint32 это будет Sentence ID ищем в массиве обрабатываемых сообщений, присутствует ли такой Sentence ID если не присутствует переходим к ожиданию следующего сообщения Вот список самых наиболее часто употребимых идентификаторов сообщений, которые парсер поддерживает "из коробки": Возникает резонный вопрос: как быть с Pсообщениями? Здесь придется оставить место для компромисса. У нас есть две новости: плохая и хорошая. Плохая заключается в том, что идентификатор проприетарных сообщений вообще никак не стандартизируется каждый производитель может что угодно делать. Например, у GNSSприемников с протоколом MTK (Например, Quectel) проприетарный команды имеют идентификаторы 001 399. Выглядит это как PMTK314,..... , у некоторых они вообще могут иметь разную длину. Хорошая же состоит в том, что если требуется создание своего протокола, то это можно лекго учесть: трехбайтный Manufacturer ID вместе одним символом в качестве идентификатора команды дает uint32, который с то же легкостью можно искать в таблице обрабатываемых сообщений. Можно также "отложить проблему на потом" искать сообщение с идентификатором, скажем, MTK0 это умещается в 32битное целое, а уже при разборе полей анализировать оставшуюся часть этого идентификатора, и выяснить, например, что это сообщение MTK001 или какоето другое. Естественно, нужно в алгоритме учесть, обрабатывается ли стандартное или проприетарное сообщение. И еще о чем не стоит забывать сразу после получения нужно начинать считать контрольную сумму: мы будем считать ее на лету и когда дойдем до то у нас будет с чем сравнить. Если же источник был настолько ленив, что не снабдил сообщение контрольной суммой это тоже нужно учесть и априори считать, что целостность не нарушена. Ну и пора ввести необходимые структуры данных и обозначить модули. У нас будет функция, которая принимает на вход очередной байт и возвращает значение типа enum, которого говорит о текущем состоянии парсера: Теперь опишем структуру состояния парсера, т.к. он у нас конченный автомат: За вычетом размеров буфера и массива идентификаторов обрабатываемых сообщений, размер структуры составляет порядка 2532 байт в зависимости от платформы и выравнивания. Размер байтового буфера, куда мы складываем сообщение ограничен 256 байтами, но, как правило размеры стандартных сообщений не превышают 100 символов, например, сообщение RMC имеет длину 60 байт и если нас интересует только оно, то общий memory footprint составит порядка 140 байт, без учета стека и пр. Прежде чем мы рассмотрим саму функцию обработки входных данных, пару слов о том, как пользователь может инициализировать парсер: Выше функция для инициализации структуры. Как видим, в нее передается буфер под сообщение и его размер, а так же массив, содержащий интересующие нас идентификаторы сообщений с его размером. Для пуристов предлагаю схему конечного автомата и таблицу переходов: Поток данных через автомат выглядит следующим образом: Нельзя, видимо, сказать, что код выглядит элегантно, но и не то чтобы прям совсем плохо. Все в статической памяти, никаких излишеств. В среднем на какойто простой платформе на обработку одного байта требуется 1050 тактов. Чтобы лучше понять работу алгоритма я подготовил онлайндемку, которой можно задать сообщение и нажимая кнопку "ШАГ", побайтно скормить сообщение парсеру, наблюдая за активными ветками алгоритма и изменением состояния сознания структуры. Конечно, к этому моменту может возникнуть вопрос: а где же разбор сообщений? Ведь то, что было представлено до этого только с натяжкой является парсером это скорее поиск и валидация. Да. После того, как интересующее сообщение попало в буфер нужно достать из него информацию. Здесь я не предложу какието новаций. У меня на каждое сообщение отдельная функцияпарсер и соответственно стуктура, которая этой функцией заполняется. Разберем на примере того же RMC , как наиболее часто употребимого. Вот структура, описывающая его: Конечно, этот код легко дорабатывается под конкретные нужды путем выкидывания не интересующих нас веток в switchcase. Поиск индексов начала и конца текущего параметра выполняются такой функцией: На остальном не буду останавливаться подробно. Скажу лишь, что парсинг (и преобразование в строку) чисел вынесен в отдельный модуль. Так же, как уже было упомянуто, библиотека из коробки имеет арсенал для парсинга основных сообщений, которые можно получить от среднего GNSSприемника и даже больше. Среди особенностей реализации можно выделить такие (не все строго положительные это не плюсы, а особенности): Это Гибридный автомат использует как явные флаги ( isStarted , isReady ), так и неявное состояние через idx и chk_dcl_idx ; Ранний отсев сразу после получения полного sntID (байт 5) происходит проверка, нужно ли это сообщение; Инкрементальная проверка CRC XOR накапливается на лету, а не после получения всего сообщения; Обработка проприетарных сообщений отдельная ветка для сообщений, начинающихся с P; Защита от переполнения проверка idx buffer_size на каждом шаге; Поддержка сообщений без CRC если не получен, сообщение считается валидным (при условии корректного n ). В итоге мы пришли к реализации наших пожеланий к парсеру, а именно: все делается за один проход (поиск и валидация сообщения, разбор полей второй проход) ненужное отсеивается сразу (хотя можно еще раньше в принципе) Если сравнивать по использованию памяти с самыми популярными парсерами, то получается такая табличка: Дополнительно приведена колонка, если вдруг нам захочется оптимизировать полностью и мы похожие данные (например, координаты и время несколько раз встречаются в разных сообщениях) объединим. Я понимаю, что оправдание есть у каждого и у меня до замеров скорости на железе руки не дошли. Мы можем волюнтаристически прикинуть производительность нашего парсера и наиболее популярных других. сколько тактов тратится на обработку одного какогонибудь популярного сообщения Примерно прикинем для трех платформ CortexM0, CortexM4 и AVR сколько тактов требуется на парсинг сообщения RMC. Для указанных платформ основные операции имеют такую стоимость в тактах: Для нашего парсера отдельно посчитаем поиск с валидацией и собственно парсинг разбор полей сообщений. C: sntID byte поиск в массиве: 45 тактов Итого заголовок: 403026504045 231 такт Байт 65 : Переход в режим CRC: 22 такта Байт 66 6: Первый hex CRC: 35 тактов Байт 67 A: Второй hex CRC: 35 тактов Байт 68 n: Конец сообщения: 25 тактов Итого валидация: 231116022353525 1508 тактов NMEA_Get_NextParam: 12 вызовов 45 тактов 540 тактов STR_CC2B: 8 чисел 15 тактов 120 тактов STR_CCC2B: 1 число 20 тактов 20 тактов STR_ParseFloat: 5 чисел 250 тактов 1250 тактов Проверки валидности: 12 12 144 тактов Конвертации (узлыкмч): 1 50 50 тактов Для CortexM4, имеющего т.н. barrel shifter, сдвиги происходят значительно легче всего за 1 такт вместо по такту на бит. Поэтому валидация пройдет чуть быстрее (минус 200 тактов), а за счет более быстрых вызовов, примерно на 20% уменьшиться число тактов на разбор полей. Примерно это выльется в 3000 тактов . Для AVR, у которого все 32битное и все, что связано с float сильно дороже, и валидация и разбор полей идут значительно медленнее примерно должно быть 1800 и 2500 тактов соответственно и на все должно быть гдето 4300 тактов . Для TinyGPS, который использует строковые операции с выделением памяти и для MicroNMEA прикинем еще более примерно: atof() 6 чисел: 6 600 3600 тактов (float на M0 очень медленно!) Остальное: 1440500300 2240 тактов Итого: 3140 тактов atof() на AVR: 6 800 4800 тактов (очень медленно) strtok(): 12 150 1800 тактов Итого: 7100 тактов Ручной парсинг чисел (не atof): 6 200 1200 тактов В итоге получаем такую таблицу, где описывается сколько времени какой парсер тратит на парсинг сообщения RMC: Да, мы некоторым образом медленнее MicroNMEA, но надо учитывать, что речь идет о сообщении RMC, а в реальности GNSSприемник валит очень много всего. Возьмем какойнибудь типичный GNSSприемник типа ubloxQuectel, он выдает примерно такой набор раз в секунду: Опять же, валюнтаристически примем, что парсинг GGA чуть дороже, чем RMC и тогда получается такая окончательная таблица: Конечно, прикидки очень грубые. Конечно, можно у приемника настроить вывод только нужных сообщений. Но в общемто я пока даже не пытался заниматься низкоуровневой оптимизацией, а там есть где разгуляться. На этом будем заканчивать и перейдем к обещанному бонусу. Я использую NMEA0183, страшно сказать, года с 2008ого наверное. В 20112012 я написал, как мне тогда казалось, убербиблиотеку на эту тему, правда на C его я использую для десктопных задач. Библиотека знает все стандартные сообщения и некоторые проприетарные. И не просто умеет их парсить, а содержит разные описания: что означает тот или иной Talker ID или Sentence ID. Более того, она позволяет добавлять свои форматы сообщений. В прошлом году я в полуавтоматическом режиме перевел ее и на JS, поэтому ей можно пользоваться онлайн просто заходим, скармливаем любое NMEAсообщение и получаем названия и значения полей. Я стараюсь по мере сил и времени ее поддерживать в актуальном состоянии. Онлайндемо с возможностью пошаговой демонстрации алгоритма Что ж, Long read long write! Этой публикацией некоторым образом закрыл давний гештальт, поставил галочку, крестик, перевернул страницу, затянул кота в долгий ящик, сделал дело и гуляю смело. Искренне благодарю вас за интерес к этой теме, буду рад выслушать конструктивную критику, предложения, пожелания, вопросы.
15,142
https://habr.com/ru/articles/973656/
habr.com
Безопасность WiFi остаётся одной из тех тем, где одновременно сосуществуют мифы, неоправданные ожидания и огромное количество недопонимания. Ктото уверен, что WPA2 и тем более WPA3 взломать невозможно, потому что «это же криптография». Ктото считает, что всё решается набором трёх команд в Kali. И на практике обе позиции оказываются одинаково далеки от реальности. WiFi — это не магия, не «сеть, работающая на духах», и не «непробиваемая защита». Это обычный протокол уровня 802.11 , который живёт в открытом эфире и подчиняется вполне конкретной структуре пакетов, таймингов и встроенных процедур. Понимание этих процедур моментально показывает, что подавляющее большинство атак — не взлом, а закономерное следствие того, как устроено взаимодействие клиент точка. Основой WPA2аутентификации является четырёхшаговый handshake . И именно он формирует ключ, но при этом раздаёт достаточно информации, чтобы злоумышленник мог оффлайн проверять догадки о пароле. Все пакеты handshake идут открыто — это EAPOLкадры , которые может увидеть любое устройство в эфире. Точка отправляет ANonce , клиент — SNonce , обе стороны на основе PMK (который, в свою очередь, зависит от пароля и SSID ) вычисляют PTK , и затем сравнивают MIC . В этот момент пароль нигде не передаётся, но комбинации значений ANonceSNonceMIC более чем достаточно для оффлайнподбора. Если открыть реальный handshake в Wireshark , второй пакет будет выглядеть примерно так: Protocol: EAPOL Key Information: Key MIC: 1, Secure: 0, Error: 0 Nonce (SNonce): 5f:6b:b1:9a:31:0c:ae:... MIC: 53:ff:12:88:9c:7d:91:52:... Эти данные можно использовать для проверки предполагаемого пароля: сначала PBKDF2 генерирует PMK , затем PMK превращается в PTK , затем создаётся MIC , и если этот MIC совпадает с MIC из пакета — пароль найден. Вся атака происходит оффлайн. Никаких запросов к точке, никаких попыток войти в сеть, никакого шанса «спалиться» в эфире. Но чтобы подбор стал возможен, handshake нужно сначала получить. С passivперехватом проблем хватает: можно слушать эфир часами и так и не дождаться переподключения. Поэтому практически все реальные атаки начинают с деавторизации — искусственного разрыва связи между клиентом и точкой. Деавторизация — это не «аномальный» пакет. Это штатный кадр уровня MAC , который есть в стандарте. И если клиент его получает, он честно отключается, после чего автоматически инициирует повторный handshake. Схема выглядит примерно так: На практике такой handshake ловится за 1–2 секунды. Для деавторизации используются обычные команды: aireplayng deauth 4 a bssid c client wlan0mon Производители роутеров поразному реагируют на такие пакеты. Например, TPLink и Xiaomi почти всегда честно выбрасывают клиентов, даже если кадры приходят с поддельным MAC . У некоторых Asus и Zyxel в прошивках включены проверки, и деавторизация может пройти не с первого раза, но в 90% сетей этот механизм работает стабильно и предсказуемо. После получения EAPOLкадров начинается подбор. Он может длиться секунды, часы и даже недели — зависит только от пароля, а не от сложности протокола. Если пароль « 89161234567 » или « qwerty123456 », словарь найдёт его практически мгновенно. Если пароль состоит из четырёх случайных слов или имеет энтропию хотя бы 60–70 бит, подобрать его становится нереально. Поэтому реальная безопасность WiFi почти полностью определяется человеком, который установил пароль, а не стандартом WPA2 . Отдельного внимания заслуживает PMKID атака, которая позволяет получать материал для подбора даже тогда, когда в сети нет ни одного активного клиента. Некоторые точки доступа передают PMKID на этапе ассоциации, и злоумышленнику достаточно отправить один корректный запрос, чтобы получить идентификатор. Эта особенность особенно часто встречалась на ранних прошивках Netgear, Ubiquiti, некоторых TPLink, а также на ряде старых операторских роутеров. Отсутствие клиентов — не проблема, и deauth не нужен вовсе. Достаточно: hcxdumptool i wlan0mon enable_status15 o dump.pcapng Если точка уязвима, в дампе будет строка вида: PMKID: a1b2c3d4e5f6... И далее используется Hashcat: hashcat m 16800 pmkid.txt wordlist.txt На многих старых устройствах это работает до сих пор. Теперь о WPA3 . На бумаге WPA3 решает ключевую проблему — ликвидирует оффлайнподбор. Новый механизм SAE (Simultaneous Authentication of Equals) использует криптографию, основанную на PasswordAuthenticated Key Exchange, и каждая попытка проверки пароля требует полноценного участия точки. То есть «поймал пакет ушёл домой брутил» уже не работает. Но реальность экосистемы — это всегда «смесь теории и хаоса». Большинство роутеров работают в смешанном режиме WPA2WPA3 , потому что старые устройства иначе просто не смогут подключиться. Многие клиенты (в том числе Android до определённых версий и куча IoTустройств ) предпочитают WPA2 даже при наличии WPA3 . В результате сеть часто остаётся уязвимой именно изза этого fallbackрежима. Плюс были обнаружены уязвимости типа Dragonblood , которые снизили стойкость некоторых реализаций SAE . Именно в таких деталях видна реальность: протокол может быть идеальным, но окружающая его экосистема — нет. И самое интересное: реальная атака — это всегда очень будничный процесс. Берётся обычная сеть гденибудь в квартире или офисе. Смотрится список клиентов. Выполняется деавторизация. Ловится handshake. Запускается словарь. И чаще всего пароль перед глазами: « Alex2005 », « pass12345 », « 1234567890 », « дом2008wifi » или чтонибудь столь же предсказуемое. Вот пример живого лога Hashcat: [ 52.47%] WPA02 SSID: Home_WiFi Recovered: 11 Digests Password: qwerty12345 Именно так выглядит подавляющее большинство взломов WiFi в реальной жизни: не потому что протокол слаб, а потому что человек выбрал слабый пароль. Ещё один важный слой — то, что происходит на уровне радио. Разные чипсеты поразному формируют кадры. Некоторые Realtekадаптеры роняют EAPOLпакеты при высокой нагрузке на канал, поэтому иногда требуется снижать частоту или применять фильтры захвата. Старые Atherosчипы могут повторно отправлять EAPOLпакеты с другой временной меткой, и Wireshark показывает несколько потенциальных вариантов. У мобильных устройств тоже есть свои паттерны: iPhone отправляет EAPOL последовательнее, Xiaomi иногда делает двойной handshake, а некоторым IoTотдельным устройствам требуется 2–3 деавторизации, прежде чем они наконец переподключатся. Прошивки роутеров добавляют ещё один слой хаоса. У бюджетных TPLink и Keenetic handshake почти всегда стабильный и легко перехватывается. У некоторых Asus прошивки вводят задержки при повторных аутентификациях. Ubiquiti периодически ограничивает частоту попыток ассоциации, и нужно ловить момент между ограничениями. Старые ZTE , которые массово выдавались операторами, вообще могли отправлять PMKID независимо от статуса клиентов — избыточная любезность, ставшая уязвимостью. Когда рассматриваешь всё это вместе, становится ясно, что атаки на WiFi не исчезнут, пока экосистема устроена так же, как сейчас: огромный зоопарк устройств, непредсказуемые прошивки, старые протоколы, слабые пароли и отсутствие единой политики. WiFi не слаб сам по себе. Но он живёт в реальном мире, где есть люди, WiFi операторы, дешёвые роутеры, странные настройки и тянущийся двадцать лет багаж обратной совместимости. И в этом реальном мире криптографическая стойкость WPA2 перестаёт быть определяющим фактором. Всё решает то, что происходит в эфире и что выбирает пользователь. Ещё лучше особенности поведения WiFi устройств становятся заметны, если посмотреть на ситуацию не только в терминах протокола, но и визуально — так, как это видит анализатор эфира. В нормальной сети весь процесс подключения выглядит как плотный, но логичный набор пакетов. На спектрограмме это выглядит примерно так: Если же в этот момент присутствует атакующий, картина меняется: в эфире появляется серия коротких, чётко различимых deauthкадров, и они визуально создают характерные «пробелы» в трафике клиента. Это можно увидеть даже на самых простых SDRосциллограммах как небольшие выбросы плотности. На плотной временной диаграмме это выглядит так: Client traffic: Deauth spam: Disconnection: [gap] Reconnection: [Auth][Assoc][EAPOL...] Тот же эффект можно заметить и в Wireshark : последовательность пакетов выглядит абсолютно однородной до момента появления deauth, после чего лог появляется разрыв, а затем новый цикл handshake. Фрагмент лога может выглядеть так: Frame 231 Deauthentication, Reason: Class 3 frame received from nonassociated STA Frame 232 Deauthentication, Reason: Class 3 frame received from nonassociated STA Frame 233 QoS Null Function Frame 234 GAP 728 ms Frame 235 Authentication Frame 236 Association Request Frame 237 EAPOL Message 14 Frame 238 EAPOL Message 24 Отдельно интересны и PMKIDсценарии . В тех случаях, когда точка отправляет PMKID автоматом, в эфире появляется короткий, почти незаметный фрагмент, который при фильтрации выглядит так: EAPOL Key (PMKID included) PMKID: 5a:a1:47:92:14:f3:9e:7c:2c:3d:... На визуальной временной диаграмме этот фрагмент проявляется как одиночный EAPOLпакет , не связанный с handshake . Поэтому инструменты для пассивного сканирования таких ситуаций (например, hcxdumptool) создают плотную ленту запросов, чтобы «выцепить» этот пакет. Принцип можно изобразить так: В ситуациях, когда в эфире большое количество устройств, визуализация помогает понять и другое явление — миграцию клиентов между 2.4 и 5 ГГц. На анализаторе спектра это выглядит как перемещение активности с одного канала на другой, обычно в момент резкого изменения уровня сигнала. Пример временной карты: 2.4 GHz channel 6: —gap— 5 GHz channel 36: —burst— Этот burst — как раз момент переключения диапазона, сопровождаемый повторным handshake. И именно в этот момент атакующий может поймать ключевые пакеты вообще без activeдействий. Иногда визуализация помогает заметить и побочные эффекты реализации протокола. Например, на некоторых роутерах beaconкадры становятся «неровными» при высокой нагрузке, что визуально выглядит как колебания интервала отправки: Normal beacons: 102ms 102ms 102ms 102ms Under load: 102ms 154ms 89ms 112ms Эта особенность может указывать на перегрузку устройства, и в некоторых случаях именно во время таких расхождений точка начинает отправлять дополнительные EAPOLпакеты или PMKID , что снова создаёт шанс для атакующего. Для полноты картины можно привести и пример реального «облака трафика», снятого с многопользовательской сети. В визуализаторе WiFi Explorer или Kismet это выглядит как плотная структура: Beacon: Probe Requests: AssocAuth: EAPOL: Data frames: Этот рисунок показывает, что атака часто происходит не «по одиночке», а на фоне большого количества фонового трафика. В таких условиях захват handshake становится ещё проще: чем выше плотность эфира, тем выше количество повторов аутентификацияассоциация, а значит больше шансов поймать релевантные кадры. Эти визуализации подчёркивают ключевую мысль: поведение WiFi в реальном эфире — это не идеальная последовательность шагов из стандарта, а постоянно меняющееся динамическое состояние. И если понимать, как оно выглядит на практике, можно не только лучше защищать сеть, но и заранее предсказывать слабые места её конфигурации.
11,203
https://habr.com/ru/companies/geltek/articles/974896/
habr.com
После развала СССР стране нужны были медицинские гели. Мы – бывшая лаборатория НИИ Полимеров, сотрудники которой смогли собрать старую команду и сделать небольшое производство. В очень скромных условиях, на старых чешских реакторах, начали производить гели для УЗИ и ЭКГ. И наши гели выдерживали конкуренцию с иностранными, потому что были банально лучше и дешевле даже в таких условиях. Потом мы прошли путь от устаревших технологий до того, что есть сейчас. Сейчас – очень крепкий бизнес и очень хорошо отлаженное производство. Первый наш фокус был на науке и медизделиях, мы не умели продавать. Позже, как вы, возможно, видели это по нашим постам на Хабре, продавать мы научились и даже выстроили и сеть дистрибуции, и еком, и научились правильно готовить маркетплейсы. В 2022м, когда с рынка ушли западная косметика и поставщики, у нас резко вырос спрос на нашу косметику — и на производство косметики в России для крупных брендов. Мы сильно расширились и начали строить новый завод. На самом деле, мы начали совершенствовать производство ещё 10 лет назад. И делаем это до сих пор. Вот эта штука на первом фото — реактор. Вот что обычно внутри: По сути, у него одна задача — получить на входе разное сырьё, на выходе дать равномерно перемешанный гель, пудру, эмульсию или что там ещё нужно по цепочке производства. Ключевое в реакторе — возможность правильно собрать компоненты сырья. Некоторые — просто ёмкость с мешалкой, некоторые сложнее, например, «сердце» разбивает сырьё на кучи в лучах и затем сбивает их обратно, потом снова и снова. Меня зовут Евгений, я главный инженер на производстве. У нас была главная проблема — старые реакторы (мы их называли допотопной технологией). Представьте кастрюлю, у которой в дне дырка. К ней приделана труба, стоит насос, и другая труба закидывает продукт обратно на верх кастрюли. И вот так оно циркулирует. Если продукт вязкий или липкий, он в этих трубах вечно застревает. Мыть это — ад, чуть ли не шомполом пробивать приходилось. Вот они, старички, уже на складе: Со временем понимая все проблемы, с которыми сталкиваемся на производстве, начали смотреть на топов рынка оборудования и увидели другую компоновку — донный гомогенизатор. Это когда всё смешивание происходит внутри ёмкости, без внешних труб, без рецикла. Чтобы не рисковать деньгами, мы решили провести эксперимент. Нашли завод в Китае и купили маленькую копию такого реактора — «десяточку» на 10 литров. Это была наша проба пера в прямых закупках. Сейчас такая десятка стоит около 20 тысяч долларов, а тогда, в 2018м, она нам обошлась гдето в 1,3 миллиона рублей. Мы сварили в ней крем, поняли, что качество отличное, мыть легко, потерь нет. И начали масштабировать эту историю: купили 50 литров, потом 100, ещё пару соток, трёхсотку и нашего нынешнего великана на 500 кг. Появление 500килограммового реактора не значит, что мы выкинули «сотки» и «полтинники». В музей и на склад отправились только те самые старые реакторы с трубами. А новые китайские работают все одновременно. Это вопрос экономики склада: мы варим ровно столько, сколько успеем продать свежим. Если продукт — хит, варим в пятисотке. Если это нишевая история — варим в 50м. Делать полтонны крема, который будет год пылиться на складе, — это замороженные деньги. А сейчас мы делаем следующий шаг — заказали реактор на 2 тонны. Он уже оплачен, и почти доделан, ждём готовности ужеуже. И вот тут физику не обманешь: на двух тоннах донный гомогенизатор уже не справляется с перемешиванием всего объёма, поэтому в конструкцию снова возвращаются циркуляционные трубы, от которых мы так бежали. Только так можно обеспечить однородность такой огромной массы. Этот гигант уже не влезет в наши московские цеха с потолками 3,5 метра. У него только рабочая платформа для засыпки сырья на высоте двух метров! Поэтому он поедет сразу на новый завод в Ябедино, где мы сделали зону варки с потолками 6 метров. Чистую воду не такто просто сделать. Чистую — это не для питья, это для химических процессов. Оборудование для водоподготовки стоит миллиона полтора, а мембраны — тысяч по 15. Цена ошибки высокая, но мы решили рискнуть. У нас в установке обычно стоит комбинация «31»: три мембраны на качество (селективность) и одна на количество (поток). Мы решили проверить, что будет, если выкрутить качество на максимум, и поставили все 4 мембраны на селективность. Вода получилась идеальная, но производительность рухнула. Мы этот урок усвоили и, когда производство выросло, просто купили новую установку на 6 мембран. Теперь у нас и качество топовое, и поток воды вырос в 1,5 раза. Начинали мы с пневматики. Это когда ты с отвёрткой бегаешь вокруг станка, откручиваешь датчики, двигаешь их механически, чтобы поймать нужный объём. Настоящие танцы с бубном. Потом мы поменяли пневматику на серводвигатели. Там объём задаётся цифрами в меню контроллера. Удобно, быстро. Но есть физическое ограничение: диаметр цилиндра. Если у тебя поршень большого диаметра (под литровые банки), ты им 15 миллилитров никогда точно не нальёшь — вес будет гулять. Поэтому сейчас мы берём шестерёнчатые машины. Там нет цилиндров, дозирование идёт за счёт вращения шестерёнок, а серводвигатель позволяет провернуть их на чётко определённый угол. Такая машина может с одинаковой точностью налить и малыша на 30 мл, и канистру на 5 литров. Только медленно. Кстати, про ассортимент. Нам, инженерам, почти без разницы, что внутри — крем для лица, гигиеничка или собачья косметика. Нас интересует только типоразмер тары. Но вот больше всего проблем доставляет «пеномой» (шампуни). Их нельзя фасовать на высокой скорости, иначе они начинают пениться и лезть через край. Для упаковки и маркировки раньше мы мучились с каплеструйными принтерами на чернилах. Они постоянно протекали, сопла засорялись, струя била криво. Приходилось разбирать «голову», промывать вонючим растворителем — к концу смены голова кругом. Сейчас мы перешли на лазер. Он выжигает дату намертво — убрать можно только срезав ножом. И никакого обслуживания: тряпочкой линзу протёр и работай. А ещё внедрили паровой термотоннель. Для маленьких флаконов или флаконов сложной формы, куда не наклеишь пломбу, мы используем прозрачные термоусадочные «носки». Надеваем рукав, прогоняем через пар — и всё, контроль вскрытия обеспечен. С моей точки зрения, как главного инженера производства, процессы поменялись очень сильно. Раньше была романтика: чтобы затащить станок, мы могли вчетвером полдня придумывать системы тросов и спускать его в шахту лифта . Сейчас это недопустимо. Цена ошибки слишком высока, оборудование дорогое. Нужно достать станок через окно второго этажа? Вызываем манипулятор, заклеиваем всё пленкой (чтобы не пылить в чистую зону), нагоняем толпу профи. То, что раньше занимало день развлечений, теперь делается за два часа. Дорого, скучно, но надёжно. В постоянной погоне за оптимизацией производства и в попытках воткнуть новое оборудование мы, можно сказать, играем в тетрис машинками и даже откусили кусок от склада под производство. Мы работаем с ними напрямую, без посредников. В Китае есть разное оборудование: дешёвое, среднее и дорогое. Реакторы мы берём только в премиумсегменте — там качество металла и полировки решает всё. А вот этикетировщики или укупорку берём средние, их можно и самим допилить. Отношения с китайцами у нас отличные, настоящая дружба. Я уже второй год на выставке «Интершарм» стою на их стенде как технический консультант и переводчик. Мы ходим с ними в рестораны, обсуждаем жизнь, а не только работу. Это даёт плоды. Например, работает аналогия с производством шуруповёртов. Редукторы для них покупают на одном заводе, электрику на втором, корпус на третьем. А заводбренд просто собирает всё воедино. С большими линиями в Китае так же. Благодаря дружбе мы вскрыли эту схему и нашли в этом большой плюс для нас . Когда мы запрашивали у некоторых заводов целую линию оборудования (розлив, укупорка, этикетировка), они нам её предлагали полностью. Но стоило нам запросить только один компонент , скажем, отдельную укупорку или розлив — как они продолжали предлагать оборудование, которое, по сути, сами не производят. Оказалось, что китайские заводы, делая, например, только этикетировку, собирают всю линию для продажи: они находят партнёров, которые делают розлив и укупорку, добавляют свою часть и предлагают это как единый комплект. Мы нашли эти заводыпоставщики других компонентов. Теперь, если нам не нужна вся линия, мы можем по низкой цене брать недостающие части напрямую у тех, кто их реально делает. Они даже прошивки под нас кастомизируют. Присылают мне файл в Excel на английском (или китайском), а я пишу им нормальный русский перевод. Потому что если оставить автоперевод, получится смешной язык с Алиэкспресса, а нам нужно, чтобы оператор всё понимал чётко. Так что, пока другие страдали изза санкций по сырью, у нас в инженерной службе всё стабильно: старые друзья на месте, новые связи налаживаются. Сейчас, когда смотрю на старые фотографии производства, постоянно вижу какието костыли: И понимаю, что, наверное, лет через 5 всё то крутое, что есть сейчас, тоже будет просто промежуточным шагом. Но сейчас мы уже коечто знаем про производство. Подозреваю, что меньше, чем нужно, но опыт за десятилетия накопился.
9,187
https://habr.com/ru/articles/974148/
habr.com
Hugging Face релизнули Skills — Agent Context Protocol (ACP), через который упаковываются определения разных задач для ИИ агентов. По сути — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИагентом под конкретный кейс. В каждой такой папке есть файл SKILL.md с YAMLфронтматтером (имя и описание) и далее текст с инструкциями, которым кодовый агент следует, пока этот скилл активен. Сама концепция повторяет Claude Skills (о чем Hugging Face открыто заявляет). С помощью таких скиллов Hugging Face научили Claude обучению опенсорсных LLM моделей на опенсорсных датасетах. Разберем, как это работает, на примере от Hugging Face: Вы даёте агенту задачу дообучить модель на датасете: можно указать свой датасет или позволить ему найти подходящий самому. Например вот таким промптом дается задача агенту по файнтюнингу малыша Qwen3 на 0.6B параметров: Агент подбирает железо для обучения исходя из размера модели и проверяет датасет. В данном примере он подберет t4small (наименьшая достаточная конфигурация, чтобы дообучить эту модель). Обучение запускается на облачных GPU от Hugging Face. Перед запуском агент покажет конфигурацию (GPU, ожидаемое время обучения, стоимость, репозиторий где будет сохранена обученная модель). Агент стартует обучение и делится дашбордом с прогрессом в реальном времени через Trackio. Чекпоинты отправляются в Hub (репозиторий моделей). Когда модель обучилась, она доступна в хабе, как после обычного обучения: Hugging Face на текущий момент, пожалуй, крупнейшая международная платформа, которая предоставляет все сразу в одном месте: Такой фундамент дает компании преимущество даже перед гигантами типа Гугла, который связан своими корпоративными интересами по продвижению собственных моделей. HF же настроен на расширение совместимости этих "скиллов" с как можно большим количеством вендоров моделей, способных управлять такими сложными агентами. Сейчас скиллы уже работают с: Промпты, фреймворки, скрипты для создания структурированных датасетов. Инструкции и инструменты для оркестрации джобов по оценке моделей, генерированию отчетов, и маппинга метрик. Скилл для оубчения моделей с гайдом в SKILL.md и вспомогательными скриптами (например, train_sft_example.py , convert_to_gguf.py , cost estimators) Инструменты для публикации и управления исследовательскими статьями на Hugging Face Hub. Позволяет индексировать статьи из arXiv, линковать статьи с моделями и датасетами, генерировать сами статьи по шаблонам и управлять авторской принадлежность статей. Перечень скиллов очевидно будет расти сначала вокруг инфраструктуры самого Hugging Face. Проблема LLM моделей в том, что они либо знают "всё", но при этом слишком жирные и дорогие для onpremise. Либо они маленькие и не всегда подходят для узко специфических задач. Решается эта проблема дообучениемфайнтюнингом маленьких LLMок на конкретных датасетах под конкретные задачи. И вот раньше делать это могли только спецы с глубоким пониманием матчасти и навыками в AI. Но теперь Hugging Face сильно ослабляет эти ограничения! Теперь хватит минимальных навыков, которые можно освоить за вечер! Единственный нюанс: конкретно этот агент работает только с платным аккаунтом HF (тк использует платный запуск джобов). Но это не важно, тк это все равно существенно дешевле человекочасов любого AI разработчика! Еще больше интересного и полезного про AI агентов — в моем телеграм канале Заместители .
3,410
https://habr.com/ru/companies/samsung/articles/974510/
habr.com
Прошло 18 лет с появления первого смартфона и 12 июня 2025 года исполнилось ровно 10 лет с анонса Android Enterprise инициативы, десятилетию которой Google посвятил отдельную статью в своём блоге. Идея готовилась совместно и была поддержана Samsung платформой KNOX. За эти десять лет на нашем рынке люди узнали, что такое Mobile Device Management, появилась небольшая, но прочная ниша на рынке IT специалистов. Количество идей с предложениями рутовать телефон, чтобы запилить корпоративную фишку, сократилось почти до нуля за эти годы. Однако ниша широко известна в узких кругах, поэтому мы решили познакомить непосвященную часть IT сообщества с тем, что в реальности означает загадочное словосочетание: «политики на устройстве», как работает и для чего используют. Несколько примеров и возможность попробовать «не отходя от кассы» свяжут абстракции с опытом на осязаемом и наблюдаемом уровне. Android Management API ( AMAPI ) это облачный API от Google, который предоставляет расширенные возможности для управления устройствами Android в рамках платформы Android Enterprise. Он позволяет организациям управлять своими устройствами, применяя политики, обеспечивая безопасность и настраивая устройства для конкретных задач, используя встроенный клиент Android (Android Device Policy) вместо установки специализированного ПО. С помощью AMAPI можно настроить различные политики безопасности, контролировать установку приложений и удаленно блокировать устройства в случае кражи. В этой статье подробней разберем AMAPI и попробуем политики, которые каждый сможет повторить, проверить или поменять у себя на Android устройстве, или же задать свои сценарии для настройки своих политик. Политики в Android Management API это конфигурации, которые определяют, как управляемые Androidустройства могут использоваться в организации. Они представляют собой JSONобъекты, содержащие правила и ограничения для устройств. Основные аспекты политик в Android Management API: Автоматическая установка необходимых корпоративных приложений Контроль доступа к определенным функциям (камера, bluetooth, nfc) Настройки режима киоска (kiosk mode) для ограничения до одного приложения Ограничения на установку приложений из неизвестных источников Политики применяются к устройствам через "имена политик" (policy names) и могут быть изменены в любое время, после чего изменения автоматически синхронизируются с устройствами. Это позволяет ИТадминистраторам централизованно управлять большим количеством Androidустройств в корпоративной среде. Политики обеспечивают гибкое и масштабируемое управление Androidустройствами в корпоративной среде без необходимости в специализированном ПО на устройстве. В целом помимо AMAPI, существует еще и device policy controller (DPC) – это приложение., которое может контролировать разрешения других приложений, а также блокировать различные функции устройства. Написание собственного DPC довольно трудозатратно, т.к. включает в себя написание целого приложения, единственная функция которого — ограничивать возможности пользователя при работе с устройством. Кроме того, любые изменения в политике устройства придётся внедрять в коде, что повлечет за собой выпуск новой версии этого приложения. Чтобы упростить жизнь разработчикам таких решений, Google выпустил свой DPC, который называется Android Device Policy и управляется с помощью Android Management API. По сути, Android Device Policy это приложение для Android, которое позволяет ИТадминистраторам применять политики безопасности и управлять устройствами, принадлежащими организации, чтобы защитить корпоративные данные. Оно устанавливает правила для рабочих профилей или полностью управляемых устройств, обеспечивает доступ к корпоративным ресурсам и информирует пользователей о корпоративных требованиях, таких как установка пароля или обновление ПО. Чтобы использовать Android Management API, нужно выполнить несколько шагов: Google предоставляет несколько опций, позволяющих пользоваться Android Management API. Самый простой способ выполнить все эти шаги — пройти интерактивный quickstart guide . Для обращения к API из кода можно использовать одну из библиотек на Java, .NET, Python, или Ruby. Далее, мы продемонстрируем, как можно управлять устройством через создание своих собственных политик. Интерфейс для управления устройствами ложится на плечи разработчика, все остальное сделает за вас AMAPI. Функционал по этой ссылке https:www.howtomdm.ru:3000 собрал на коленке для того, чтобы вы могли протестировать, что это такое на реальном примере. Пробуйте. Предположим, что мы не хотели бы видеть на устройстве YouTube, но хотим предустановленный RuTube, а Яндекс Браузер – оставить доступным для установки пользователю, дополнительно нам требуется выключить режим разработчика и сделать автоматически полный сброс устройства с удалением всем данных при неправильной попытке ввода пароля на заблокированном экране. Тогда эта политика будет выглядеть похожим образом, как показано ниже в формате json: Теперь сможем сохранить политику, указав в поле ее название. При помощи AMAPI создать такую новую политику достаточно просто, общая схема работы показана ниже на схеме: Созданная политика отобразится в нашем списке среди всех политик, выбираем ее и затем нажимаем ссылку, чтобы создать QR код для того, чтобы зарегистрировать ваше устройство в рамках созданной политики. Для проверки созданной политики, нам потребуется сбросить устройство и на стартовом экране нажать 5 раз в любом свободном месте, откроется окно сканирования QR кода, далее просто потребуется отсканировать созданный код при помощи устройства. Как только устройство будет проинициализировано, оно станет доступным через AMAPI в режиме Fully Managed. Еще мы сможем менять политику, и она сразу же применится к устройству. Например, изменим созданную политику, чтобы добавить приложение Госуслуги: А теперь обнаруживаем, что новое приложение тут же появилось на устройстве в Google Play. Сначала перейдем в режим разработчика через системные настройки устройства. Открываем приложение "Настройки" на вашем Androidустройстве Нажимаем на этот пункт 7 раз (в некоторых версиях может потребоваться меньше нажатий) После этого появится сообщение, что у вас недостаточно прав это сделать Теперь установим пароль блокировки экрана по следующим шагам: Открываем приложение "Настройки" на вашем Androidустройстве Находим и выбираем раздел "Безопасность и конфиденциальность" Выбираем пункт "Блокировка экрана и биометрия", где задаем свой пароль и вводим его дважды для подтверждения. Выключаем экран, затем вводим на заблокированном экране вашего устройства неправильный пароль и видим на экране, что происходит полный сброс к заводским настройкам Полный сброс к заводским настройкам после неправильного ввода пароля на устройстве Установка приложений через Google Play работает корректно в соответствии с политикой, блокировка нежелательных приложений функционирует должным образом. Сброс к заводским настройкам при неправильном вводе пароля, устройство возвращается к заводским настройкам без остаточных данных. Доступ к настройкам разработчика заблокирован. Пользователь не сможет активировать режим разработчика стандартными способами. Давайте изменим нашу политику и добавим отключение камеры, скриншотов и ограничим время для блокировки экрана. И снова сохраняем политику, как показано на рисункe ниже: Теперь экран устройства будет гаснуть спустя 5 секунд, будет отключена камера и нельзя будет сделать скриншот. Демонстрация работы обновленной политки на устройстве: Опишем сценарий, когда требуется удаленно настроить браузер, прописав конкретные адреса сайтов, которые должны быть заблокированы, либо же доступными, помимо этого установим нужный нам адрес домашней страницы в самом браузере, включим безопасный поиск и сделаем запрет на использования приватного режима просмотра сайтов. Если мы откроем теперь браузер на устройстве, то увидим, что политика тут же применится. Поздравляю тех, кто дошел до конца, надеюсь вам было также интересно как и мне, когда я в этом разбирался. Мы показали, что с помощью Android Management API (AMAPI) можно легко сделать свой MDM и проверить работу некоторых политик управления корпоративными устройствами, интересно, что срабатывание и применение политик на самом устройстве происходит практически без задержи. Настраивая нужные нам политики можно получить уже готовое устройство для использования в корпоративной среде под свои требования. К тому же, мы убедились, что AMAPI предоставляет легкий способ создавать и проверять другие политики на устройствах. Вопрос в заголовке остается актуальным: причем тут KNOX? Многие уже знают, что KNOX является многоуровневой платформой безопасности от Samsung, встроенная в устройства, которая также является системой расширенных политик, о которых мы пишем подробнее в этом блоге. А если у вас есть корпоративная почта, то вы можете зарегистрироваться на портале www.samsungknox.com и изучить, что такое MDM на примере профессионального решения Knox Manage. На портале же можно самостоятельно выписывать себе триальные лицензии на 30 устройств и 3 месяца, каждый раз когда выходит их срок.
9,118
https://habr.com/ru/articles/972992/
habr.com
Рассмотрим практический разбор слабых мест в технических заданиях на разработку систем, сервисов и т.д. Идеальное ТЗ — утопия, но многие болезненные моменты и конфликты на стадии приемки можно предсказать и минимизировать. Часто они возникают не изза злого умысла, а изза слепых зон в документе. Абстрактные требования вида «реализовать справочник контрагентов» или «систему классификации товаров». Это плоский список или древовидная структура? Есть ли иерархия (например, Группа компаний Юр. Лицо Подразделение)? Кто, как и когда наполняет справочник? Загрузкой из Информационной Системы занимается интеграция или руками вводит администратор? Есть ли механизм согласования новых записей? Как справочник «Контрагенты» связан с «Договорами»? Можно ли привязать одного контрагента к нескольким менеджерам? В ТЗ необходимо требовать к каждому справочнику отдельную миниспецификацию: цель, атрибуты (поля), правила заполнения, ответственная роль, связи с другими объектами системы. В закупочных системах справочник ТРУ — это критически важный элемент, и его реализация кардинально различается для 44ФЗ и 223ФЗ. Непонимание этой разницы — частая причина проблем при разработке ТЗ. Для 44ФЗ используется единый обязательный Каталог ТРУ (КТРУ), который ведется в Единой информационной системе (ЕИС) и содержит строгие описания товаров. Для 223ФЗ нет единого каталога. Каждый заказчик формирует собственный Перечень ТРУ и публикует его в ЕИС в составе Положения о закупках. Это фундаментальное различие определяет все остальные требования к системе. Единый государственный КТРУ в ЕИС. Использование обязательно с указанной даты. Жесткая структура (21разрядный код, название, описание, единица измерения из ОКЕИ). Изменить нельзя, можно только добавить обоснованные дополнения. Каталог централизованно обновляется Минфином. Система должна отслеживать актуальность позиций. Внутренний перечень заказчика. Использование регламентировано внутренним Положением. Любая удобная заказчику структура. Можно группировать товары по своим критериям, использовать внутренние коды. Заказчик обновляет свой перечень самостоятельно. Система должна вести историю изменений и обеспечивать публикацию в ЕИС. Эти правовые различия формируют конкретные технические требования. Необходим механизм загрузки и синхронизации актуальных позиций КТРУ, так как он постоянно пополняется (интеграция с ЕИС). При создании технического задания (ТЗ) в системе поля для характеристик товара должны соответствовать структуре КТРУ и позволять формировать структурированную заявку, требуемую законом. Система должна препятствовать нарушению правил (например, изменению единицы измерения или названия из каталога). Должна быть функция прикрепления обоснования для любых дополнительных характеристик. Нужен инструмент, позволяющий Заказчику самостоятельно создавать, редактировать и структурировать свой перечень ТРУ без участия разработчика. Система должна готовить данные в формате, пригодном для публикации в ЕИС, как часть пакета документов. Логика работы модуля закупок (способы, лимиты) должна гибко настраиваться под конкретное Положение Заказчика. В ТЗ часто пишут просто «реализовать справочник ТРУ», не уточняя, о каком законе идет речь. Это фундаментальная ошибка, ведущая к неверной архитектуре. Для 44ФЗ интеграция с ЕИС для подгрузки КТРУ — обязательное условие. Её отсутствие или неполная реализация (без учёта дат обязательного применения позиций) сделает систему неработоспособной. Если в одной системе пытаются объединить работу и по 44ФЗ, и по 223ФЗ, используя единый модуль справочников, то архитектурно это неверно. Логичнее создать разные подсистемы или четко изолированные модули. «Система должна содержать справочник товаров с возможностью их классификации». Пример некорректного ТЗ. «Для работы по 223ФЗ система должна предоставлять интерфейс для создания иерархического перечня ТРУ с произвольными атрибутами. Для работы по 44ФЗ система должна обеспечивать автоматическую ежедневную синхронизацию справочника ТРУ из раздела ЕИС с учётом даты начала обязательного применения каждой позиции». Как должно быть. Справочник ТРУ — это не техническая, а в первую очередь юридическая сущность. Разработка его в отрыве от норм конкретного закона гарантированно приведёт к переделкам. Система разрастается, и похожие процессы появляются в разных модулях для разных пользователей (например, заявка на отпуск для офиса и для склада; создание карточки товара в CRM и в личном кабинете). Один и тот же процесс работает поразному, что путает пользователей. В одном месте заявку можно отозвать, в другом — нет. В одном модуле есть уведомления, в другом — нет. Исправление ошибки или доработку нужно вносить в несколько мест. Выделить сквозные бизнессущности (например, «Документ», «Заявка», «Задача») и описать их общую модель данных и жизненный цикл. Требовать явного описания различий. Если для «Менеджера по продажам» и «Кладовщика» процесс создания заявки должен отличаться — это должно быть четко прописано: какие поляшагиправила скрыты, добавлены или изменены. Интеграция с другой Системой — это не требование, это целый проект. Что именно передаем? Только справочники раз в сутки или онлайндокументы? Доступ к API, документация, сроки доработок старой системы не контролируются вашей командой. Что делать, если другая Система упала в момент отправки документа? Где гарантия доставки? На каждую интеграцию прописать цели, данные (что, куда, когда), частота, протокол (REST, SOAP, файлы), ответственные с обеих сторон. Обязательно прописать поведение системы при недоступности контура (сценарии ошибок). Четко определить, интеграция на каком объеме данных считается успешно завершенной (этапность). ТЗ описывает функционал, требования к железу и среде, но молчит о замене оборудования. Например, Заказчик планирует через полгода миграцию на новый серверв облако. Данный фактор может существенно оказать влияние на своевременную сдачу работ. «Система должна работать быстро» — это не требование. Быстро — это 1000 пользователей одновременно или 10? Время отклика 2 секунды или 200 мс? Кто и как это делает? Входит ли в состав задач разработки? В ТЗ необходимо прописать обязательный нефункциональный раздел: требования к производительности (нагрузка, время отклика), инфраструктуре (версии ПО, ОС, наличие интернета), отказоустойчивости, процедурам развертывания и отката. Отсутствие описания текущей архитектуры и требований к технологиям. Невозможность оценки. Непонятно, дорабатываем мы монолит или пишем модуль для микросервиса. Заказчик хочет новую фичу на современном стеке, но интеграция должна работать с устаревшей БД основной системы. Возникает конфликт «как есть» и «как должно быть». Решение «сделать пока так» закладывает проблемы на будущее. Возникает технический долг. Контекст и ограничения. Раздел с описанием текущей системы (если это доработка) — основные технологии, базы данных, точки интеграции. Требования к стеку. Если есть явные требования (например, «использовать только контейнеризацию Docker»), их нужно зафиксировать. Если их нет — зафиксировать свободу выбора исполнителем. Стратегия развития. Понятно ли, что это разовая доработка или первый шаг к постепенному обновлению всей системы? Идеального ТЗ не бывает, но его цель — минимизировать неопределенность. Обязательны этапы уточнения (workshops), прототипирования интерфейсов (Figma, Sketch) и, самое главное, фиксация всех допущений и открытых вопросов хотя бы в виде частных технических заданий иили официальных протоколов встреч Заказчика и Исполнителя, если работы уже стартанули. Эти документы — страховка от «а мы думали иначе». Важно закрепить в ТЗ или регламенте, что они являются неотъемлемой частью договора. Частное техническое задание (ЧТЗ) используется для детализации крупных, но еще не до конца ясных модулей до начала их разработки. Например, Интеграция с 1С. В основном ТЗ — только цель. ЧТЗ описывает методы API, форматы данных (XMLJSON), сценарии ошибок, объем тестовых данных, график совместного тестирования. Протокол совещания или решение по уточняющему запросу фиксирует все локальные уточнения и решения, принятые в ходе работ. Например, на совещании 01 декабря 2025 года согласовано: для поля «Тип проекта» в справочнике добавить значение «Экспериментальный». Изменение вносится в текущий спринт и не влияет на сроки. Для структурирования этого процесса можно опираться на существующие frameworks, помня об их гибкости. Визуальное согласование логики, интерфейса до написания кода. Фиксирует прототипы, user flow, CJM. Без четкого контроля версий и статуса (черновикутверждено) прототип может трактоваться двояко. User Stories Acceptance Criteria (в Jira, YouTrack) Критерии приемки каждой фичи (GivenWhenThen). Заменяет ЧТЗ для небольших задач. Может теряться общая архитектурная картина. Требует высокой дисциплины от Аналитика и Владельца продукта. Полное описание системы, включая требования к надежности, составу, срокам. Бюрократия, плохая адаптивность к изменениям, часто создается в отрыве от реальности. Дата, участники, повестка, принятые решения, список действий (action items) с исполнителями и сроками. Бесполезны, если не рассылаются в течение 12 рабочих дней и не содержат конкретных решений.
9,201
https://habr.com/ru/articles/974910/
habr.com
Статья для тех, кто пытался поставить k3s на Arch Linux (и основанные на нём дистрибутивы) и столкнулся с зависающим установщиком, проблемами DNS и отсутствующими systemd юнитами. Полное руководство по ручной установке с реальными командами и решениями. Документация обещает установку «в одну команду» и поддержку «большинства современных Linuxдистрибутивов» . Я использую CachyOS (Archbased), изучаю инфраструктуру под DevOpsSRE и хотел локальный Kubernetes, который: И, честно говоря, хотелось не просто «поиграться», а настроить чтото productionlike. После нескольких часов борьбы с зависающим установщиком, отсутствующими systemdюнитами, конфликтами DNS и даже несовместимостью shellа, кластер всётаки встал. «Попробую k3s — он ведь лёгкий и современный. Что может пойти не так?» Если вы тоже на Arch или другом rollingrelease дистрибутиве — этот разбор сэкономит вам время и нервы. Я уже прошёл через все грабли, чтобы вам не пришлось. полноценный Kubernetes на ноутбук (особенно с 8 GB RAM) — слишком тяжело; minikube — хороший вариант, но это скорее «песочница». K3s — лёгкий, но productionready Kubernetes. Отлично подходит для edgeсистем и локальных экспериментов. K3s упакован в виде одного двоичного файла ( меньше, чем 70 МБ), что сокращает зависимости и количество шагов, необходимых для установки, запуска и автоматического обновления рабочего кластера Kubernetes. «Лёгкий» — да. «Работает везде» — не совсем. Rollingrelease дистрибутивы вроде Arch — отдельная история. Официальный QuickStart Guide уверяет, что установка простая: Абсолютно ничего. Ни вывода. Ни ошибки. Терминал зависает. CtrlC не помогает — только закрывать окно. Попытки ещё раз — тот же результат. И проблема в документации в том, что в разделе Requirements написано, что k3s будет работать на большинстве современных систем Linux. Однако не было ничего про Arch и ему подобных дистрибутивов. И получил ошибку о том, что не удалось собрать пакет: Пакет на тот момент, видимо, был просто сломан. Однако это у меня был такой случай, вам, может быть, повезёт больше. Предупреждение: вообще, если у вас сработала команда, которая предоставлена в QuickStart Guide , то вам повезло в какойто степени. Но в моём случае нет. Файл на месте. Но Проблема: systemd unit отсутствует Ни etcsystemdsystemk3s.service, ни других юнитов не появилось. Без юнита — нет автозапуска, нет нормального управления. Пришлось писать вручную. Typenotify — K3s сам сообщит systemd, когда действительно запустится LimitNOFILE1048576 — Kubernetes работает с тысячами файловых дескрипторов Afternetworkonline.target — без сети Kubernetes бесполезен 401 Unauthorized — это хорошо! Значит, API сервер запущен и слушает порт 6443, требует аутентификацию (как и должно быть). Но при попытке использовать kubectl : «В etcresolv.conf слишком много DNSсерверов, пришлось некоторые проигнорировать. Оставил: 8.8.8.8, 1.1.1.1, 1.1.1.1» Проблема: В Arch Linux одновременно работают NetworkManager и systemdresolved. Оба пишут в etcresolv.conf , создавая дубликаты. K3s (точнее, его компонент CoreDNS) видит эти дубликаты, сходит с ума и отказывается работать. K3s запущен, но DNS сломан. Без работающего DNS Kubernetes — просто красивая абстракция. Arch и CachyOS используют systemdresolved NetworkManager. K3s — ожидает статический etcresolv.conf. Arch Linux использует современный стек управления сетью: NetworkManager для удобства systemdresolved для DNS. Оба хотят управлять etcresolv.conf , создавая «войну DNS». Когда NetworkManager и systemdresolved пытаются править один файл, в etcresolv.conf появляются дублирующиеся nameserverы (типа 8.8.8.8 1.1.1.1 1.1.1.1 , как в моём примере вышло). K3s (а точнее — его CoreDNS) видит этот бардак, паникует и выдаёт Nameserver limits exceeded . Podы перестают резолвить домены, кластер ломается. Параметр dnsnone говорит NetworkManager: «Не трогай DNS, пусть этим занимается systemdresolved». Это останавливает войну и даёт k3s стабильный DNS. Но у меня установлен Fish shell — альтернатива Bash с другим синтаксисом. При попытке выполнить bashкоманды Fish ругается: Когда Fish пытается «прочитать» bashкоманды — он не понимает их mkdir p .kube Создаём директорию для конфигов Kubernetes. Флаг p означает: «создай родительские директории, если их нет; sudo cp etcrancherk3sk3s.yaml .kubeconfig K3s при установке создаёт конфигурационный файл в etcrancherk3sk3s.yaml . Копируем его в домашнюю директорию, где у пользователя есть права на чтение; sudo chown USER:USER .kubeconfig Файл скопирован от root, поэтому меняем владельца на текущего пользователя. Иначе kubectl не сможет его читать; set — команда установки переменной в Fish (аналог export в Bash). U (universal) — переменная сохранится между перезапусками терминала. x (export) — делает переменную доступной для дочерних процессов (включая kubectl ). KUBECONFIG — переменная, в которой kubectl ищет путь к конфигурации кластера. Почему это важно: Без правильной переменной KUBECONFIG утилита kubectl не знает: Мы скопировали конфиг из системной директории в домашнюю, настроили права и сообщили Fish (а через него — kubectl ), где искать настройки кластера. Команда для вывода узлов (физических или виртуальных машин) в кластере: Ready — нода прошла все healthчеки, сеть работает, kubelet отвечает; controlplane,master — на этой же ноде работает и управляющая плоскость (API, scheduler, controllermanager); k3s1 в версии — это именно K3s, а не ванильный Kubernetes. Кластер жив и готов к работе. Теперь можно делать свой HomeLab. Скачать бинарник ( ссылка на свежий релиз в github ): Исправить DNS etcNetworkManagerNetworkManager.conf: Arch ! «современный дистрибутив» в понимании документации. Rollingrelease — это сила и боль одновременно; Разница между «установилось» и «работает» — огромная. Особенно в Kubernetes; Логи — главный инструмент диагностики, journalctl u k3s спасал снова и снова; Shell имеет значение. Если вы не на Bash — готовьтесь к особенностям; Стоило ли это того? Для обучения — да. Для комфортной разработки — скорее нет. Minikube работает «из коробки». Если вам нужен просто обучающий кластер, то можно рассмотреть в сторону minikube, который имеет статью на ArchWiki : Но если вам хочется именно лёгкий productionlike Kubernetes — теперь вы знаете, как запустить k3s вручную. Нашли ошибку в статье? Знаете более простой способ поставить k3s на Arch? Или прошли через такой же ад? Делитесь в комментариях — вместе сделаем мир Arch и Kubernetes менее болезненным.
6,438
https://habr.com/ru/companies/vtb/articles/975144/
habr.com
Импортозамещение аналитических систем остаётся одной из наиболее трудоемких задач в корпоративной ИТсреде. Особенно когда речь идёт о платформах уровня SAP BW4 HANA: больших объемах данных, сложной архитектуре, множестве отчетов и строгих нефункциональных требованиях. В подобных проектах важны не только выбор стека и корректная миграция хранилища, но и организационные решения, планирование и работа с пользователями. Всем привет! Меня зовут Михаил Синельников, я лидер кластера импортозамещения аналитической отчетности в ВТБ. Вместе с моим коллегой Владимиром Ведяковым , ИТлидером проекта со стороны компании «Сапиенс Солюшнс» , мы описали в этой статье перенос системы аналитической отчетности SAP BW4 HANA на импортонезависимый стек. В этом материале представлен наш практический опыт: ключевые решения, подходы к планированию, особенности реализации и выводы, которые могут быть полезны командам, работающим с аналогичными задачами. SAP BW4 HANA – это единая платформа для сбора и преобразования данных из различных источников. Она легко интегрируется с другими продуктами SAP и используется для подготовки аналитической отчетности и дэшбордов. Кроме того, решение поддерживает интегрированное планирование для облегчения разработки приложений, требующих ручного ввода. Долгое время выбор этой импортной платформы в качестве технологического решения для систем аналитической отчетности был очень распространенным. Таким образом, задача импортозамещения системы аналитической отчетности, построенной на SAP BW4 HANA сложна и амбициозна. Тем не менее, ряд важных предпосылок потребовали решения этой задачи. Среди них: 1. Отказ от санкционного оборудования; 2. Отказ от санкционного ПО; 3. Невозможность запуска отчетов в Analysis for Office после завершения перевода рабочих мест пользователей на целевые технологии (Astra Linux, Мой Офис). На целевой стек требуется мигрировать систему, содержащую 293 отчета (193 аналитических отчета, 66 форм ввода и 28 дэшбордов). Данные загружаются из 14 исходных систем, при этом ключевыми исходными системами являются SAP S4 (модули FIFM, FIAA, MM, RE, CO) и SAP HCM (PA, PP). Хранилище данных для отчетности состоит из 1000 ADSO, 1500 СV, 1600 трансформаций и построено с применением архитектурного подхода LSA. LSA (Layered Scalable Architecture) – расширенная версия многоуровневой масштабируемой архитектуры. Хранилища, построенные таким образом, логически делятся на уровни, среди которых можно выделить уровень сбора данных, уровень распространения, уровень отчетных витрин, уровень виртуализации и т.д. Во время загрузки данные копируются с уровня на уровень, постепенно трансформируясь к оптимальному для использования в отчетах виду. а. Выбор компонентов целевого импортонезависимого решения При выборе технологического стека мы руководствовались следующими предпосылками: Учитывая ограниченные сроки проекта, выбираемые технологии должны содержаться в технологическом стеке банка – тем самым срок проекта сокращается на длительность работы по внесению технологии в банковский контур; Решение, построенное на выбираемых технологиях, должно в полной мере отвечать текущим функциональным и нефункциональным требованиям, предъявляемым к системе на проприетарном стеке. Учитывая это, мы отдали предпочтение специализированным компонентам, а не универсальному платформенному решению. Итоговый стек получился таким: Apache Superset в качестве BIинструмента для визуализации дэшбордов и отчетов, а также построения форм ввода; ClickHouse для высоконагруженной отчетности и дэшбордов; Apache NiFi для организации двустороннего интеграционного взаимодействия; Apache AirFlow для управления интеграционными потоками и ETLпроцессами. Лайфхак: Использование специализированных (в т.ч. Open source) компонентов оправдано в том случае, если нет универсального платформенного решения, удовлетворяющего всем требованиям. Компоненты с открытым кодом можно самостоятельно доработать командой проекта с учетом требований к целевому решению и без оглядки на дорожную карту той или иной проприетарной платформы. b. Планирование сроков Самый простой для изложения пункт и самый сложный для выполнения: сроки определены верхнеуровневыми дедлайнами. Основным и самым амбициозным из таких дедлайнов являлся отказ от продуктов Microsoft (Windows и Excel). В проекте предполагалось, что пользователи системы увидят отчеты на целевом стеке гораздо раньше окончания работ по миграции хранилища данных для этих отчетов. Абсурд и утопия или скрытая возможность сделать лучше? Разберемся далее. c. Планирование объема работ На фазе подготовки проекта мы сделали небольшой пилот, в рамках которого перевели несколько объектов каждого типа на целевой стек. Результатом этого пилота стали два знания: На пилотном объеме мы не опровергли гипотезу о выборе целевых компонентов и приняли окончательное решение по утверждению целевого стека; Мы узнали, сколько времени уходит на перевод исходных объектов того или иного типа: CV, витрина, преобразование, запрос и т.д. Таким образом мы определили коэффициенты для перевода мигрируемых объектов в человеко–дни. После этого осталось лишь посчитать количество активных объектов каждого типа в импортозамещаемой системе и общую трудоемкость миграции: , где – количество объектов, подлежащих импортозамещению по типам – коэффициент пересчета каждого объекта в трудодни, полученный в результате пилотирования. Лайфхак: При планировании объема важно учитывать ключевую особенность проектов импортозамещения – нам уже известно то, что должно получиться в конце. Функциональные и нефункциональные бизнестребования определены. Для системы отчетности определена требуемая структура отчетных витрин и поля отчетов. Это знание можно и нужно использовать при планировании и проведении работ. d. Организация команды При планировании команды мы думали о том, что: Необходима команда, способная выполнить объем работ; Необходимо, чтобы организованная команда могла уложиться в срок проекта; Необходимо учитывать, что целевая система состоит из множества компонентов, а значит для участников проекта необходима специализация. Этот пункт новый в сравнении с внедрением системы на базе SAP BW4 HANA – в таких внедрениях чаще всего работают специалисты, ведущие разработку от источника до отчета; При реализации проекта необходимо обеспечить функционирование отчетности на целевом стеке до окончания перевода рабочих мест (отказ от Microsoft) – этот дедлайн был значительно более ранним, чем общий. Для внедрения «с нуля» задача сделать отчеты раньше хранилища была бы нерешаемой, но в нашем случае мы знали, что должно получиться в конце. Кроме того, исходное хранилище строго разделено по слоям (LSA). Учитывая это, мы условно разделили хранилище на две части: от источника до уровня распределения и от уровня распределения до отчета, и сконфигурировали команды проекта таким образом, что они отвечали за свою «половину» хранилища. Команда, названная «Технологические компоненты», дорабатывала Apache Superset, чтобы получившийся продукт удовлетворял требованиям заказчика, ранее предъявляемым к продуктам Analysis for Office и SAP Lumira; Команды отчетности разрабатывали хранилище, начиная с уровня распределения данных, и настраивали отчеты, формы ввода и дэшборды; Команды экстракции и стейджинга реализовывали целевые интеграции и настраивали хранилище и ETL до уровня распределения данных; При планировании команды мы также выделили отдельные функции – архитектор, скраммастер, ответственный за конфигурирование и настройку инфраструктуры, ответственный devops, централизующий релизную активность; Лидерская функция была, напротив, децентрализована – лидер кластера импортозамещения управлял скоупом и коммуникацией с заказчиком, ИТлидер являлся последним уровнем эскалации всех архитектурных и технических вопросов, руководитель проекта контролировал стоимость, сроки и формальное соответствие проекта всем банковским стандартам. Такая конфигурация позволила каждой команде заниматься разработкой в рамках своих компонентов, а общая длительность проекта сократилась вдвое в сравнении с классическим внедрением от источника до отчета. Еще одним важным следствием стало то, что мы смогли уложиться в дедлайн, связанный с отказом от Excel, а пользователи системы увидели целевые отчеты задолго до окончания проекта. Это в свою очередь, обеспечило длительную стабилизацию. Примечание: вдумчивый читатель спросит о том, как же в целевых отчетах оказались данные, если хранилище еще не готово. Ответом на этот вопрос стала временная архитектура системы. В промежуточном решении все интеграции были настроены в SAP BW4 HANA, там же остались все преобразования от источника до уровня распределения, связанные с очисткой и гомогенизацией. А данные из витрин уровня распределения и мастерданные загружались в Arenadata DB с помощью PXF (Platform Extension Framework) – фреймворка, обеспечивающего параллельный высокопроизводительный доступ к данным из внешних источников. После определения сроков, скоупа и команды мы составили дорожную карту проекта. Начинает проект команда технологических компонентов, задача которой доработать Superset, разработав ряд фич для соответствия Superset возможностям Analysis for Office и Lumira. Бэклог команды приоритизируется исходя из логики: обязательные и требующиеся для большинства отчетов фичи реализуются первыми, в конце реализуются точечно применимые фичи и прочие бантики. Следующими к работе приступают команды отчетности. Их бэклог также разбит на фазы и соотнесен со сроком готовности фич для отчетности, бизнесзаказчик может предлагать повышение или понижение приоритета по отчетам, но не может настаивать на этом изменении, так как техническая возможность реализации первична. Второй фактор, влияющий на приоритет, – наличие активных задач доработки в исходной системе – если импортозамещаемый отчет дорабатывается, то мы вынуждены будем догонять те разработки, которые команда сопровождения внесет, таким образом бэклог импортозамещения должен быть соотнесен с бэклогом третьей линии поддержки с целью минимизации повторных доработок отчетов. В третью очередь включаются команды экстракции и стейджинга для настройки интеграций. Их бэклог динамичен, так как зависит от команд исходных систем. Учитывая разные возможности команд этих систем, сначала команды занимались проектированием интеграций и синхронизировали планы с внешними для системы командами, а затем выполняли работу внутри системы. Каждая фаза разработки фич Superset и каждая фаза разработки отчетности должна заканчиваться приемосдаточными испытаниями. В проект была заложена длительная стабилизация как для фич Superset, так и для отчетов. По нашему убеждению, длительная стабилизация в таких проектах – необходимый элемент для достижения результата, так как в независимости от качества работ проектной команды, новизна решения и кардинально изменившийся пользовательский опыт неизбежно приведут к серьезному сопротивлению конечных пользователей. Это сопротивление непреодолимо в том случае, если пользователи увидят новые отчеты незадолго до завершения проектных работ. Напротив, длительная стабилизация позволяет: Учесть пожелания заказчика, реализовав ряд дополнительных требований для улучшения пользовательского опыта; Выиграть время, за которое пользователи свыкнутся с новым инструментом и вместе с командой преодолеют трудности, психологически присвоив себе часть результата. Лайфхак: пользователям требуется время для того, чтобы свыкнуться с любыми значительными изменениями. Первая реакция на такие изменения может быть скептической, настороженной или конфликтной (даже в случае движения по плану). Поэтому в проектах, где меняется пользовательский опыт, необходима фаза стабилизации. f. План коммуникаций с заказчиком В этом месте уместно написать несколько слов о коммуникациях с бизнесзаказчиком. Наш опыт говорит о том, что крайние позиции команды проекта по отношению к бизнеспользователям («закрыться в бункере и выйти из него к дедлайну» или «максимально вовлекать бизнесзаказчика во все процессы») содержат риски. В первом случае риск связан с неприятием и непринятием конечного результата, «упавшего» на заказчика «как снег на голову». Во втором – с утратой автономности команды и ее отвлечения от первичной задачи на понятные бизнесу задачи по кастомизации формы стрелочек на графике или перекрашивания элементов интерфейса. Обязательного согласования ключевой проектной документации перед каждой фазой проекта (по одной визе от каждого подразделения); Опционального участия в операционных комитетах проекта (раз в две недели); Обязательного участия в приемосдаточных испытаниях для отчетов (минимум один участник от каждого направления отчетности); Опционального участия в еженедельных рабочих группах по приемке отчетности. Исследования, декомпозиции и приоритизации фич Superset; Согласования дизайна инструмента построения отчетности; Участия в технологических приемосдаточных испытаниях (например, в случае тестирования шифрования, полномочий ТУЗ, интеграционных взаимодействий и т.п.). Лайфхак: для проекта импортозамещения при планировании коммуникаций важно учитывать, что он одновременно и технологический, и бизнесориентированный. В таких проектах пространство решений для хорошей коммуникации находится между «закрытым» и «открытым» полюсами. Вовлечение заказчика должно быть необходимым и достаточным для выполнения целей проекта. При этом для прозрачности необходимо составлять и согласовывать план коммуникации. Мы добились поставленных результатов, завершив проект. Весь скоуп проекта выполнен с соблюдением первоначально определенных параметров по срокам и бюджету. Результатом проекта стала импортонезависимая система, включающая: Набор инструментов на базе Apache Superset для замещения технологии SAPBusinessObjects в части построения аналитических отчетов, форм ввода и дэшбордов; Отчетность на целевом стеке – 293 отчета (193 аналитических отчета, 66 форм ввода и 28 дэшбордов); Хранилище данных на базе ArenaData DB и ClickHouse (на оба компонента 18 000 таблиц и представлений). В новой системе обеспечена поддержка ключевых бизнеспроцессов формирования управленческой отчетности для внутрихозяйственной деятельности ВТБ, включая отчеты по расходам Сети банка, ИТ, а также отчетности для департамента по работе с персоналом. Обеспечен бесшовный переход на новый стек для 750 пользователей отчетности. Завершая статью, авторы хотели бы поблагодарить команду проекта и всех его стейкхолдеров. Это было славное путешествие и для нас было честью двигаться вместе с вами.
14,472
https://habr.com/ru/articles/974984/
habr.com
Врываюсь я тут както на онлайнсобес в приличную контору с намерением выглядеть серьёзно и трезво. Но вебка моего ноута решила навалить хоррора и выдала такую шакальную картинку, будто я подключился к созвону не из дома, а из колодца Самары Морган. Ощущение, будто каждый кадр несёт астматичный голубьстажёр пока видео пытается догнать хотя бы цифру 3 в слове «30 FPS». Рекрутерки, естественно, не были готовы базарить с кандидатом, который выглядит как архивная запись с камер наблюдения фонда SCP, и забанили меня ещё до того, как я успел спросить хорошо ли меня видно. Стало ясно, что про вакансии можно забыть пока я буду собеситься через эту камеруобскуру, которая по уровню детализации уступает даже кнопочному Самсунгу, пережившему две мобилизации и одно обрушение шахты. Что? Твоя вебка на ноуте тоже скулит «Верните мне мой 2007»? Или ты статный LinuxPCбоярин, у которого камер столько же сколько друзей в реальной жизни? Не беда — если у тебя под рукой есть болееменее приличный Androidсмартфон, значит ты зашёл в правильную дверь. Под Windows и macOS отгрузили тонну готовых решений — Camo Studio, iVCam, Iriun Webcam и ещё куча всего. А что под Linux? Ну, раньше работал DroidCam, потом он исчез для РФ, тут вроде вернулся , но кого теперь это волнует. Есть ещё базарвокзал про какойто нативный «Режим вебкамеры» для Android 14, который в реальности я видел не чаще, чем актуальную документацию в Confluence. Но мы сегодня всё сделаем по красоте без лишних приложений на телефоне, без рута и прочего непотребства. Разберёмся, как за десять минут бесплатно превратить Android в вебкамеру, о которой твой компьютер мог только мечтать. Мы будем использовать scrcpy — читается как screen copy . На первый взгляд это решение тупо для трансляции экрана Android на компьютер, но на самом деле оно также умеет вытаскивать картинку с камеры и отдавать её как вебку . Работает через adb (Android Debug Bridge): просто подключил телефон — картинка пошла. Посмотрим как всё это заставить работать на Fedora 43. Для других дистрибутивов истина будет гдето рядом. Тут всё просто — документация проекта говорит, что для Fedora заготовлен собственный RPMрепозиторий, навалить который можно при помощи Copr вдогонку к adb всего двумя командами: Мы только начали, а у нас уже трипс на руках — это хороший старт. Мало просто отжать изображение у телефона — надо его кудато пристроить. Например, в виртуальное устройство Video4Linux ( v4l ). Тогда Zoom, OBS Studio, браузер и прочие приложения будут видеть телефон как полноценную вебкамеру. Звучит так, что Ubuntuпацаны могут отскочить на этом этапе на изи, просто скопипастив пару команд из документации . Но если ты купил шляпу и она тебе как раз, придётся не только собрать v4l2loopback вручную, но и подписать его для Secure Boot. Не волнуйся, DKMS это сделает за нас, но ты всё равно почувствуешь себя хакером. DKMS (Dynamic Kernel Module Support) — это система автоматической сборки и установки модулей ядра Linux. Но чтобы ядро не плюнуло нашему самопальному модулю в лицо, нужно намутить сертификат DKMS для регистрации в ключе MOK (Machine Owner Key). Для начала предоставляем системе нужные зависимости (свои личные не подойдут): Генерируем MOKключ (если хочется подробностей, держи документацию ). Указанные в команде пути и имена ключей не случайны — они облегчат нам автоматизацию подписи модуля: Теперь сложная часть — надо придумать пароль. Для удобства запишем его во временную переменную окружения. Пароль подойдёт любой — понадобится он как твой костюм на выпускной — только один раз, при перезагрузке: Строки ниже долго работали на стрёмной галере и теперь постоянно твердят «Мы одна команда»: Перезагружаемся и на синем экране приёмной Международного олимпийского комитета подтверждаем добавление ключа . Вводи пароль смело и дерзко. Не волнуйся, каскадный резонанс не запустится — тут надо просто продемонстрировать компьютеру свою власть. Увидеть installed в выводе последней команды — к удаче. Говорим компьютеру, что v4l2loopback теперь часть корабля, поэтому будет вставать и работать сразу после восхода солнца, то есть загрузки системы. Для этого создаём файл: Теперь поясняем модулю с какими аргументами надо входить в системную хату. Тоже через новый файл: video_nr0 — выдаём номер виртуального устройства, теперь оно официально будет devvideo0 — первый парень на районе card_label"Scrcpy" — имя устройства, которое будет видно в приложениях при выборе вебкамеры; тут можно проявить фантазию exclusive_caps1 — это для корректной работы в ChromeWebRTC — когда у тебя нет времени ставить приложения и ты созваниваешься прямо в браузере из туалета без регистрации и подтверждений в MAX Осталось перекреститься и перезагрузить сервис модулей в надежде не встретить сообщения об ошибках: Активируем в телефоне режим разработчика: ищем в информации о системе номер сборки и жмём на него много раз. Поздравляю, теперь ты разработчик! (можешь подаваться в бигтех на 300 кнс) В появившемся разделе системного меню включаем Отладку по USB. Осталось подсоединить телефон по USB к компьютеру, подтвердить включение отладки и получить первое изображение с камеры при помощи команды: Экран телефона держать включённым необязательно — можно блокировать замедлять. Закрытие окна с видео автоматически завершит выполнение процесса в консоли. Теперь мы можем собрать всю магию в одну команду, для чего добавим в файл .bashrc : selectusb — подключаемся только по USB, а не по TCPIP. Да, можно гонять видео и без провода через WiFi, но у меня так картинка лагает даже в HD 720, так что по проводу надёжнее videosourcecamera — забираем видео с камеры, а не экрана устройства — чтобы не палить переписку с твоей бывшей и мемы из WhatsApp camerafacingback — используем основную камеру вместо фронтальной — мы же профессионалы camerasize1280x720 — выбираем разрешение. Мой ноутбук сделан из обещаний маркетологов, поэтому Full HD вынуждает его ворчать. Ставить разрешение нужно не любое, а из списка поддерживаемых устройством; посмотреть можно командой: scrcpy listcamerasizes orientationflip0 — снимаем горизонтально, повзрослому. Ставь flip90 если в душе ты директор ТикТока v4l2sinkdevvideo0 — направляем поток в наше виртуальное устройство, а не в офшоры noaudio — отключаем передачу звука с микрофона телефона чтобы не было эха nowindow — окно с видео для отладки нам больше не нужно Ну вот и всё: подключил телефон, написал в консоли webcam и выбрал в нужном приложении Scrcpy как вебку. Представь как завтра ты подключаешься к созвону, и ослеплённые голливудской картинкой коллеги с завистью гадают, когда ты успел купить себе новый Макбук. На всякий случай вот пример выдачи команды webcam в консоли при успешном запуске: Когда созвон закончен и вебка больше не нужна, тормозим процесс в консоли (стандартный CtrlC ), отсоединяем USBкабель и идём в банкомат снимать свои 300к новой зарплаты сразу после успешного собеса. И да, не забудь отметить в резюме что на досуге ты поднял свой вебкамсервис.
6,953
https://habr.com/ru/companies/runity/articles/974916/
habr.com
Привет, Хабр! На связи Никита Ли, я Frontendразработчик в Рунити. Вокруг сборщиков последние годы кипят страсти: большинство боготворит Vite, ктото экспериментирует с esbuild, а энтузиасты активно продвигают инструменты на базе Rust — прежде всего Rspack и SWC. На фоне этого Webpack нередко называют пережитком, который якобы тормозит развитие команд. Но жизнь реальных продуктов куда сложнее, чем пишут в соцсетях . Иногда Webpack остается единственным зрелым вариантом. А иногда — мешает и действительно требует замены. В этой статье я попробую разобраться, откуда вообще взялись сборщики и что именно происходит внутри Webpack, насколько современные альтернативы действительно готовы его заменить, почему в Рунити мы осознанно продолжаем использовать Webpack в основных продуктах и в каких случаях смена сборщика действительно имеет смысл, а в каких может обернуться лишней тратой времени и сил без ощутимой выгоды. Но Webpack — не серебряная пуля: когда мы выбираем Vite До 2011 года браузеры не умели работать с модулями. Фронтендразработчик подключал десятки scriptфайлов в строгом порядке, а малейшая ошибка ломала всё приложение. Чтобы упростить себе жизнь, сначала разработчики просто объединяли множество файлов в один — это снижало количество запросов к серверу и немного упрощало управление зависимостями. Позже появились минификаторы, которые сокращали размер итогового файла, но сами по себе не решали проблемы структуры проекта. Ситуация начала меняться в 2011 году, когда появился Browserify : он позволил использовать привычный для Node.js подход с require() прямо в браузере и впервые ввел идею явного графа зависимостей для фронтенда. В 2012 году ситуацию полностью изменил Webpack — он ввел идею графа модулей и единый пайплайн, который: прогоняет каждый файл через цепочку преобразований; Webpack стал стандартом на долгие годы, потому что позволил подружить JS, CSS, изображения, YAML, VueReactTSX, web workers — в одном контролируемом пайплайне. Большинство разработчиков видят только конфиг. Но под капотом у Webpack довольно стройная архитектура. Entry — стартовая точка, с которой начинается обход графа. Module — любой импортируемый файл: JS, TS, SCSS, SVG, YAML. Loader — преобразователь модулей (например, SCSS JSмодуль со стилями). Plugin — расширение пайплайна (кеширование, оптимизация, анализ бандлов). Output — структура итоговой сборки: чанки, хэши, каталоги. Разрешение импортов. Webpack превращает import .foo в абсолютный путь, учитывая алиасы и расширения. Применение loaders. Все не JSфайлы превращаются в JSмодули. Даже SCSS или YAML в итоге становятся JS. Парсинг AST. Webpack анализирует код и извлекает импортированные сущности: import, require, new Worker(), import.meta.url. Построение графа зависимостей. Каждый модуль — узел графа, у которого есть связи, тип и источник импорта. Именно на этом этапе работают treeshaking и code splitting. Хуки компиляции. Перед каждым шагом Webpack вызывает плагины: beforeCompile, afterResolvers, emit, optimizeChunkAssets и т.д. Генерация чанков. Webpack объединяет модули в чанки, создает хэши, пишет файлы на диск. Module Federation — важная часть экосистемы, но не единственная причина востребованности Webpack. В Webpack 5 появилась поддержка динамического подключения модулей из других сборок, что дало импульс развитию микрофронтендархитектур. Позже сама идея Module Federation вышла за рамки Webpack и превратилась в самостоятельное направление — с отдельными реализациями, инструментами и плагинами для разных сборщиков. Поэтому нельзя сказать, что именно эта технология «держит Webpack на плаву». Скорее, Webpack остается востребованным благодаря зрелости экосистемы, предсказуемому поведению и тому, что в нем уже существует стабильная и проверенная временем реализация сценариев, связанных с распределенными сборками. Ни один сборщик сегодня не предоставляет столь же зрелую реализацию. Гибкость. Поддерживает любые форматы: YAML, SVG, GraphQL, TS, Vue, React, web workers, кодогенерацию — что угодно, если у вас есть на это loader. Module Federation. Пожалуй, самая зрелая и надежная реализация микрофронтендов. Оптимизации. Кеширование, инкрементальная сборка, treeshaking, code splitting, многопоточность. Экосистема. Тысячи готовых плагинов и лоадеров, которые решают любые задачи. Надежность. Прогнозируемое поведение, огромное комьюнити, множество battletested практик. Высокий порог входа. Разобраться в конфигурации Webpack непросто: почти все конфиги громоздкие, требуют глубокого понимания механики сборки и не всегда прозрачно объясняют, что происходит на каждом этапе. Сложность поддержки. Со временем конфиги обрастают кастомными лоадерами, исключениями и историческими решениями. В больших проектах любое изменение приводит к риску сломать цепочку сборки, поэтому правки требуют осторожности. Низкая скорость разработки. Devсервер запускается медленно, а пересборка крупных проектов может занимать десятки секунд, что снижает комфорт разработки по сравнению с современными быстрыми сборщиками. Vite Vite стал популярным благодаря очень быстрому запуску девсервера и простому порогу входа. Он использует нативные ESмодули в браузере и esbuild для быстрой трансформации кода, поэтому изменения отображаются почти мгновенно. Конфигурация компактная, понятная и хорошо подходит для современных SPA. Однако у Vite есть особенности, которые важно учитывать в сложных проектах. Поддержка Module Federation в экосистеме Vite уже доступна, но в отличие от Webpack она опирается на отдельные плагины и развивается независимо. Поэтому при сложной архитектуре могут возникать сценарии, которые требуют дополнительной настройки или обходных решений. Существенная разница между деврежимом и продакшеном связана с тем, что финальная сборка выполняется через Rollup: часть оптимизаций и поведения модулей проявляется только на этапе продакшена, изза чего отдельные ошибки обнаруживаются позже. В результате в реальных проектах нередко приходится учитывать особенности Vite и Rollup, чтобы добиться стабильной конфигурации. esbuild esbuild привлекает прежде всего высокой производительностью: инструмент написан на Go и обрабатывает проекты значительно быстрее большинства существующих сборщиков. Он предоставляет поддержку TypeScript, JSX, treeshaking и минификацию без дополнительных плагинов, что удобно для вспомогательных задач и быстрой упаковки кода. Но у esbuild есть ограничения, которые делают его неполноценной заменой Webpack или Vite для крупных интерфейсов. В нем отсутствует полноценный HMR, нет поддержки Module Federation, а экосистема плагинов заметно меньше. Это хороший выбор для инструментов, CLIутилит или сервисных задач, но не для сложных приложений с несколькими точками входа и развитой архитектурой. Rollup Rollup хорошо подходит для задач, где важен максимально чистый и компактный итоговый бандл. Он оптимизирует дерево зависимостей эффективнее большинства инструментов и считается удобным решением для библиотек и npmпакетов. Его конфигурация прозрачная, а итоговый код обычно легко читается. Но Rollup ориентирован именно на сборку библиотек. Для приложений с динамическими загрузками, сложными ресурсами и микрофронтендархитектурой он требует значительных доработок и быстро упирается в ограничения. Он не предоставляет удобного девсервера и не подходит в качестве основного сборщика для больших интерфейсов. Parcel Parcel позиционируется как «zeroconfig» сборщик: он сам определяет, как обрабатывать разные типы файлов, и позволяет получить рабочий результат без ручной настройки. Для небольших проектов или прототипов это действительно ускоряет старт разработки. Однако автоматизация Parcel быстро становится ограничением. Когда проект растет, потребности в кастомизации неизбежно увеличиваются, а гибкости инструмента может не хватить. Отладка внутренних процессов усложняется, и при сложной логике сборки Parcel начинает мешать скорее, чем помогать. Rspack Rspack — молодой сборщик на Rust, который стремится предложить совместимость с Webpack при значительно более высокой скорости. Он использует движок SWC для трансформации кода и действительно сокращает время сборки в несколько раз. Благодаря сходству с Webpackконфигами миграция часто выглядит проще, чем на Vite или esbuild. Но Rspack всё еще развивается. Экосистема ограничена, документация неполная, и не все плагины Webpack работают без модификаций. Инструмент подает большие надежды, но к его использованию в ответственных продакшнсборках пока стоит относиться осторожно. Производительность Сравнительные тесты сборщиков демонстрируют ощутимый разрыв между поколениями инструментов. Бандлеры на Rust и esbuild, написанный на Go, обрабатывают проекты значительно быстрее Webpack — в некоторых сценариях время сборки сокращается в разы. Причина в архитектуре: параллельная обработка, нативные бинарные операции и отсутствие узких мест, характерных для сборщиков, работающих в среде Node.js. При этом скорость — не единственный критерий. Webpack остается стабильным и предсказуемым инструментом, особенно в проектах со сложной архитектурой, микрофронтендами, кастомными лоадерами и исторически развивающейся конфигурацией. В таких условиях преимущества быстрых сборщиков нередко нивелируются дополнительной сложностью миграции или ограничениями экосистемы. Популярность Если смотреть на динамику npmскачиваний , в 2025 году лидером по темпам роста и абсолютным значениям стал esbuild: его используют многие современные инструменты, включая Vite, а также экосистемы Vue, Svelte и новые генераторы проектов для React. Следом идут Vite и Webpack, которые сохраняют высокую базу пользователей. еще в начале 2024 года Webpack удерживал позиции лидера по скачиваниям, но постепенно начал уступать более легким и быстрым инструментам; Parcel по количеству скачиваний выглядит незаметным, однако по звездам GitHub видно, что у него есть лояльная аудитория, чаще всего — разработчики небольших проектов и прототипов; Vite за несколько лет собрал больше звезд, чем Webpack, и стал наиболее востребованным инструментом по вовлеченности сообщества; Rspack активно растет, привлекая разработчиков скоростью и частичной совместимостью с Webpack, но пока не сформировал зрелую экосистему и отстает по числу пользователей. Статистика npm и GitHub важна не сама по себе: она отражает, насколько активно инструменты тестируются в разных сценариях и насколько быстро находятся решения для возникающих проблем. Поэтому зрелость Webpack попрежнему остается одним из его ключевых преимуществ, даже несмотря на снижение темпов роста. Теперь — самое интересное: практический опыт. Наш основной продукт — большой монорепозиторий на Nx, в котором существуют: Ниже — причины, по которым для некоторых проектов мы всё еще выбираем Webpack. 1. Нам нужны зрелые микрофронтенды Module Federation в Webpack стабилен, проверен и предсказуем. Аналог в Vite — плагин, который в сложных сценариях ведет себя нестабильно. Для нас важнее надежность цепочки, чем минимальное время старта devсервера. 2. Кастомные лоадеры, которые писать заново очень не хочется За годы мы накопили набор собственных loaders, решающих специфические задачи: работа с конфигами, GraphQLсхемами, внутренними файловыми форматами, кодогенерацией. Переносить их на другой сборщик переписывать с нуля. 3. Не все проекты требуют смены сборщика В инфраструктуре любой компании есть решения, которые стабильно работают и поэтому не нуждаются в оперативной переработке. Часть наших внутренних сервисов использует более ранние версии Webpack или работает в стеке, где переход на новый сборщик не дает ощутимых преимуществ. В таких случаях мы осознанно не запускаем миграцию: она требует времени и ресурсов, а реальной пользы для продукта не принесет. Вместо этого мы концентрируем усилия на тех направлениях, где изменения действительно улучшают качество разработки и скорость поставки. 4. Webpack стабилен и предсказуем В нем огромный набор проверенных решений на любые случаи: HMR, code splitting, кэширование, анализирующие плагины, контроль структуры чанков. Это инструмент, в котором знаешь, чего ожидать. 5. Нам важен полный контроль Webpack дает возможность управлять буквально всем: порядком чанков; схемой кеширования; структурой выходных файлов и оптимизацией под конкретную инфраструктуру. Поэтому он подходит для продуктов с глубокими требованиями к сборке. Несмотря на всё вышенаписанное, мы не держимся за Webpack как за реликт. Для новых проектов вне монорепозитория, где не нужны микрофронтенды или глубокая кастомизация, мы сразу берем Vite — ради удобства разработки. Часть старых проектов тоже успешно переехала с Webpack 4 на Vite. SPA приложения простые Vite сложные микрофронты Webpack или Rspack Нужен Webpack, но быстрее? Rspack (пока считается молодым инструментом, поэтому используем, но осторожно) Не спешите выкидывать Webpack. Сначала ответьте на один вопрос: «Какая конкретная проблема меня заставляет мигрировать?» Если ответ: «все так делают» или «хочу Rust», вы рискуете потратить месяцы на переписывание, не получив ощутимых выгод. Если же проблема реальна — тогда миграция оправдана. Но в большинстве сложных продуктов Webpack остается наиболее зрелым, предсказуемым и универсальным решением. Если у вас есть кейсы, сомнения по поводу выбора сборщика или вопросы о том, как мы решали похожие задачи — буду рад обсудить в комментариях.
13,293
https://habr.com/ru/articles/974776/
habr.com
Уважаемый vvvphoenix заразил меня решением не решаемой задачи комбинаторики, вот его последняя статья поэтому поводу. Мне изначально хотелось написать о том, насколько это идеальный пример использования рекурсии, по сравнению с примером вычисления факториала, который фактически является вырожденным случаем. Но меня снова затянуло в дебри решения задачи. У меня вроде даже получилось запутать ИИ, а потом позволить ему реабилитироваться, а потом еще и заставить ИИ программу проверочную написать которая правильно работает. Сразу хочу рассказать что получилось выяснить все с помощью все той же тривиальной перестановки строк. Начать хочу с того что посмотреть на табличку 256256 все таки можно. Если внимательно посмотреть на картинку из предыдущей статьи (а не пытаться набивать себе голову всякими умными теориями): то эта картинка поможет нам понять схему для изображения кватернарного случая. На рисунке выделены две группы линий разрешенных позиций и варианты в которых они как раз «не интерферируют» с соседними столбцами. Здесь «не интерферируют» значит что во всей строке из 27 или 256 ячеек для четверичного варианта разрешенные позиции расположены в коротком сегменте размером N2 (9 или 16 ячеек). Отсюда получаются сегменты разрешения в которых разрешениязапреты передаются только вдоль колонок между строками. Но то что сегменты не имеют прямой зависимости от колонок соседних сегментов разрешает нам переставлять строки для этих сегментов как нам удобно. Тем не менее эти сегменты все таки получают опосредованную зависимость от колонок из соседних сегментов через большие квадраты с диагональными разрешениями. На этой картинке мы выделили два прямоугольника 9х3, Группа с диагональным расположением разрешенных позиций помечена соответствующими диагоналями. Соответственно для четверичного случая эти группы будут иметь размерность 16х4. Можно заметить что для любого N у нас будет N(N2) таких групп и они будут занимать 2хN(N1) линий (2х9, 2х64, ...), то есть будут оккупировать 2 из N групп строк размером N(N1). Схематично этот сегмент из двух подсегментов в четверичном случае можно изобразить следующим образом: Назовем такой сегмент НХ сегментом, Н обозначает горизонтальные разрешения, Таким образом картинка для четверичного случая будет выглядеть так: Конечно нельзя пройти мимо замечательной программы с рекурсией из предыдущей статьи: здесь уже были использованы самые простые и эффективные методы оптимизации: вместо того чтобы каждый раз заново вычислять значения начальной позиции разрешенного элемента и шага между позициями разрешенных элементов в строке, мы используем предопределенные (заранее рассчитанные или просто вручную выписанные) массивы констант. Тут интересно с точки зрения производительности, что если просто переставить строки в таблице заданной массивами: то тот же самый код, рекурсивная функция, выполняется примерно в 4 (четыре) раза быстрее просто за счет того что алгоритм быстрее обнаруживает тупиковые пути и, соответственно, тратит на них меньше времени. Можно ли распараллелить этот алгоритм? Если попробовать распараллелить этот алгоритм то нам понадобится создать массив колонок col[NN] для каждого потока (экземпляра алгоритма) который будет просто отрабатывать свои начальные условия, то есть если взять и задать значения в первых двух строчках то мы получим 3 в степени 2 варианта из которых, кстати один сразу можно исключить, потому что он нарушает условия существования расстановки для второй тройки строк. Таким образом можно запустить 8 вариантов одного и того же алгоритма с разными начальными условиями и разными переменными (массивами) для хранения состояния в процессе работы алгоритма. Самым естественным способом соединить состояние и алгоритм, который в нашем случае задан единственной функцией которая должна рекурсивно вызывать сама себя, мне кажется, будет объединение их в объект некоторого класса так, что создание объектов этого класса будет создавать еще и отдельный поток (это можно сделать в конструкторе класса или в специальной функции инициализациизапуска объектаалгоритма) в котором этот алгоритм для этих конкретных начальных условий и состояния будет выполняться. Кстати если запустить алгоритм для каждого из 9 вариантов заданных в первых двух (а не трех) строчках 3х случая до конца таблицы то мы увидим что эти варианты не равнозначны с точки зрения количества сгенерированных расстановок. Три варианта с повтором позиции дают по 800 расстановок, остальные 6 вариантов дают по 1392 расстановки. Поэтому видимо не правильно искать только множители в общем количестве расстановок 10752 для 3х случая! Оказывается 10752 1392 х 6 800 х 3; Возвращаясь к распараллеливанию нужно отметить что, к сожалению, такого рода распараллеливание ни как нам не поможет уже даже в тернарном случае так как количество вариантов для проверки там оценивается как 4 в степени 64 3.4E38 и даже если нам удастся завести 100 или даже 1000 потоков на вычисления уйдут годы! Поэтому смысла в этом математически нет, не стоит тратить усилия. Ну если только чисто в учебных целях это делать, для троичного случая когда можно дождаться результата и, соответственно есть что измерять. Мы привыкли что программирование решает какието задачи управления, автоматизации, но здесь у нас несколько другое программирование. Нам надо посчитать одно или несколько чисел фактически в научных целях, число которое никогда больше не изменится и значит не будет смысла его снова считать. Я так думал и поэтому не хотел заниматься этой вроде бы бесполезной задачей. Но оказывается у программирования можно обнаружить другое назначение. Когда вы написали программу которая вычисляет какуюто фундаментальную константу, такую как число Пи, например, вы по сути сформулировали способ вычисления этой фундаментальной константы, вы фактически написали математическую формулу (только гораздо более длинную чем все привыкли) по которой эта константа считается. И главное в этой формуле, что теперь она записана и любой может ее проверить и изучать метод вычисления, который эта формула реализует, возможно ктото сможет найти ошибку в этой формуле если таковая все таки закралась, а ктото сможет сравнить этот записанный метод с другим вновь изобретенным методом и чтото из этого вынести В этом смысле записанный алгоритм который работает на реальном компьютере (вычислителе) — это та же математическая формула, только с дополнительной функцией генерации результата, когда все переменные определены, но только при условии, что у вычислителя достаточное быстродействие для выполнения расчетов до конца, за период, который хотя бы меньше средней человеческой жизни. Но формулы должны быть доказаны, а вычисленное значение ничего не дает в этом смысле, мы не знаем насколько верным является метод вычисления! Фактически тестирование (есть другие умные слова вроде верификация результата) является аналогом доказательства или вывода формулы в математике. Но записанный алгоритм расчета сам по себе вполне является доказательством, так как любой может проследить логику, которая ведет к результату. Да! Если логика достижения результата сложна, то и алгоритм расчета будет сложным. Наверно можно даже принять за аксиому, что логика реализации вычислений не может быть проще чем оптимальный теоретический метод достижения этого результата, и, более того, за счет ограничений физического вычислителя, для которого написана эта реализация, логика реализации обычно получается сложнее чем теоретическая. Только не надо путать асимптотическую сложность вычисления по известному алгоритму (или его вариантам) , разные О(F()), o(F()) и сложность понимания иили доказательства корректности расчета, для которых буквы еще не придумали. А их часто путают, подменяя понятия, зачастую не намеренно. Еще одно назначение программирования — это когда программа которая задумывалась как метод расчета, перерождается в программуинструмент численного анализа сначала промежуточных результатов полного расчета, а потом способов объединения этих промежуточных результатов и, в конечном итоге, самого этого полного расчета. Чтобы доказать корректность метода мы должны доказатьверифицировать корректность его составных частей и способа объединения этих составных частей, это то что известно как задача декомпозиции, точнее задача декомпозиции — это как раз задача разделения сложного метода на совокупность более простых, а задача верификации этого разделения это фактически доказательство корректности такого разделения. Но доказательство корректности декомпозиции это фактически часть задачи декомпозиции. Вряд ли можно считать декомпозицию законченной если принципы по которым эта декомпозиция была произведена не идентифицированы и не доказана их корректностьнепротиворечивостьполнота...что еще? Декомпозиция алгоритма не всегда возможна методом от общего к частному, в нашем случае задача распадается на подзадачи при анализе самых простых начальных действийопераций начала перебора. Мы должны определить некоторые закономерности в вычислениях чтобы сформулировать более общиевысокоуровневые операции которые составляют полное вычисление и возможно формируют некоторую формулу этого полного расчета. Как мы выяснили ключевым сегментом который создает не регулярность вариантов перестановок является НХ сегмент в котором можно поискать какието закономерности перестановок. И такие закономерности в этом сегменте, действительно, можно найти. Глядя на схему четверичного случая (а до этого 3х случая) можно заметить что достаточно посчитать варианты для одного НХ сегмента и если бы они были полностью не зависимыми то число перестановок находилось бы возведением полученного числа перестановок для одного НХ сегмента в степень количества этих сегментов что тоже является огромным числом. Забегая вперед скажу что количество вариантов перестановок в НХ сегменте для 4х случая равно 16920, для 3х случая равно 156. Только в 4х случае 16920 придется возвести в 16ю степень, хотя для 3х случая это 156 в степени 3 вполне вменяемое число. Как видим 3х случай это все еще вырожденный случай еще и потому что в нем столбцы НХ сегментов получают только одну зависимость через один уровень диагональных разрешений. В 4х случае таких косвенных зависимостей уже две. Программа с рекурсивным алгоритмом из предыдущей задачи легко дорабатывается для расчетов по сегменту. Вообще любая программа размером дветри сотни строк легко дорабатывается фактически для чего угодно, пока результат не превышает эти плюсминус сотни строк. И вот в один прекрасный момент меня осенило спросить, какой ответ мне предложит Искусственный Интеллект на задачу в следующей формулировке. а ты можешь посчитать количество расстановок галочек в позиции обозначенные Х, оставляя позиции обозначенные цифрой пустыми, при условии, что в каждой строке может быть только одна галочка и в каждом столбце может быть только одна галочка, в следующем паттерне: строка 0:ХХХХ456789012345 строка 1:0123ХХХХ89012345 строка 2:01234567ХХХХ2345 строка 3:012345678901ХХХХ строка 4:Х123Х567Х901Х345 строка 5:0Х234Х678Х012Х45 строка 6:01Х345Х789Х123Х5 строка 7:012Х456Х890Х234Х ? В каждой строке — ровно одна галочка (ставится на позицию Х ). В каждом столбце — не более одной галочки (т. е. все галочки должны стоять в разных столбцах ). Выпишем для каждой строки номера позиций (от 0 до 15), где стоят Х : Мы должны выбрать 8 галочек (по одной на строку), чтобы: все 8 галочек находились в 8 разных столбцах (номера позиций 0–15). Это эквивалентно поиску полного паросочетания в двудольном графе: ребро есть, если в данной строке на данном столбце стоит Х . Строки 0–3 имеют Х в непересекающихся блоках по 4 столбца: строка 3: столбцы 12–15. Для этих строк выбор галочки автоматически даёт уникальный столбец (блоки не пересекаются). Строки 4–7 имеют Х во всех четырёх блоках , но каждый столбец встречается ровно в двух строках (см. ниже). Построим таблицу «какая строка видит какой столбец»: Каждый столбец встречается ровно в двух строках : одна из 0,1,2,3 и одна из 4,5,6,7. Значит, если мы уже поставили галочку в строке 0–3 на некоторый столбец, то в строке 4–7 на этот столбец галочку ставить нельзя . Для строк 0–3: выбираем по одной галочке в их блоках (0–3, 4–7, 8–11, 12–15). При этом «закрываются» 4 столбца (по одному из каждого блока). Для строк 4–7: нужно поставить галочки в оставшихся 12 столбцах, но с учётом того, что: строка 4 может ставить галочку только в столбцах 0,4,8,12, но один из них уже занят строкой 0, один — строкой 1, один — строкой 2, один — строкой 3; Фактически, для каждой из строк 4–7 остаётся ровно 3 доступных столбца (так как один столбец из её четырёх возможных уже «занят» строкой 0–3). Теперь задача сводится к подсчёту числа перестановок с ограничениями: У нас 4 строки (4–7) и 4 «группы» столбцов (по 3 доступных в каждой). Это классическая задача о перестановках с запрещёнными позициями (частныи случай — задача о свадьбах, или rook polynomial ). Однако из структуры видно, что это эквивалентно числу перестановок 4 элементов , где каждый элемент имеет 3 допустимых позиции. Но точнее: это число совершенных паросочетаний в регулярном двудольном графе степени 3. Для n4 и степени 3 число таких паросочетаний известно и равно 9 (можно проверить перебором или по формуле). Итого число способов для строк 4–7 при фиксированном выборе в строках 0–3: 9 . Для каждого такого выбора — 9 способов расставить галочки в строках 4–7. число допустимых расстановок в данном паттерне равно 2 304 . если коротко изложить суть того что она мне ответила, это долгое и нудное разжевывание задачи, которое в общем то демонстрирует что саму задачу она хорошо поняла. Но в конце она говорит: Это классическая задача о перестановках с запрещёнными позициями (частныи случай — задача о свадьбах, или rook polynomial ) и выдает неправильный ответ: 25692304, как будто ее задача подогнать ответ под какуюто теорию и она на самом деле не ожидает, что ее спросят чтото, что еще никто не решил!Наверно это оказалась "самая похожая теория" правила которой лучше других соответствуют условию задачи, как я понимаю. Для расчета количества расстановок галочек на заданной доске 8x16 с ограничениями (только одна галочка в каждой строке и только одна галочка в каждом столбце, и только в позициях, обозначенных "X") необходимо использовать методы комбинаторики, в частности, для задач о перестановках с запрещенными позициями или вычисление перманента матрицы смежности . Ваша задача сводится к нахождению числа совершенных паросочетаний (perfect matchings) в двудольном графе, где доли представляют строки (8) и столбцы (16), а ребра существуют только между разрешенными позициями "X". В отличие от стандартной задачи о 8 ладьях на доске 8х8, где ответ всегда 8! 40 320, ваша доска имеет размер 8x16 с уникальным, сложным расположением разрешенных ("X") и запрещенных (цифры) позиций. Ручной расчет или применение простых формул здесь невозможно изза специфической структуры ограничений. Для получения точного числа решений потребуется либо: Алгоритмическое решение: Написать программу, которая методом поиска с возвратом (backtracking) переберет все возможные расстановки и подсчитает количество валидных. Вычисление перманента: Сформировать бинарную матрицу 8x16, где 1 обозначает "X", а 0 — запрещенную позицию, и вычислить перманент этой матрицы. Это сложная вычислительная задача (является Pполной). Итоговый ответ: Точное число расстановок невозможно предоставить без выполнения одного из вышеупомянутых сложных вычислений. Это не стандартная комбинаторная задача с простым аналитическим решением. Тут сказали что не стандартная комбинаторная задача, у которой нет простого аналитического решения. То есть даже не стали пытаться анализировать, решать. а ты учла что если в 4х верхних строках галочка стоит в кратных позициях, например 1, 145, 189, 11213, то это запрещает установку галочки в 415ой (в 4й если считать с нуля) строке, и такие варианты надо исключить из общего посчитанного количества? Вы абсолютно правы: в предыдущем решении не учтён ключевой запрет , возникающий изза структуры паттерна. Разберём детально, почему так произошло и как исправить подсчёт. В шаге 5 предполагалось, что для строк 4–7 после фиксации галочек в строках 0–3 остаётся ровно 3 свободных столбца на каждую строку, и число способов их расставить — 9. Это неверно, потому что: Строки 4–7 имеют Х только в столбцах, кратных 4 (для строки 4: 0, 4, 8, 12; для строки 5: 1, 5, 9, 13 и т. д.). Если в строке 0 стоит галочка в столбце 1, то в строке 5 нельзя ставить галочку в столбце 5 (так как 5 1 4), потому что это нарушит условие «одна галочка в столбце». Аналогично: если в строке 0 галочка в столбце 2, то в строке 6 нельзя ставить в столбце 6 (6 2 4) и т. д. То есть выбор в строках 0–3 не просто «закрывает» столбцы, а создаёт запреты на конкретные комбинации в строках 4–7 . В строке 4 нельзя ставить галочку в столбцах c0, c1, c2, c3 (так как они уже заняты). В строке 5 нельзя ставить в c04, c14, c24, c34 (но это те же столбцы, что и выше, так как c1c04 и т. д. по структуре). После выбора c0,c1,c2,c3 для строк 0–3, в строках 4–7 каждый столбец уже занят , и ставить галочки некуда! Важно: столбцы в строках 4–7 не совпадают с столбцами в строках 0–3! Например: В строке 4 Х стоят в столбцах 0, 4, 8, 12 — это разные столбцы , чем в строке 0 (0,1,2,3). В строке 5 — 1, 5, 9, 13 (не пересекаются с строкой 1: 4,5,6,7? Нет, пересекаются по столбцу 5!). Ошибка в предыдущем анализе: столбцы пересекаются ! Например: Столбец 5 есть и в строке 1 (как Х ), и в строке 5 (как Х ). Составим таблицу, какие столбцы есть в каких строках: Вывод: каждый столбец встречается ровно в двух строках : одна из 0,1,2,3 и одна из 4,5,6,7. Каждый столбец, выбранный в строках 0–3, запрещает ставить галочку в соответствующей строке 4–7. Например, если в строке 0 выбрана колонка 1, то в строке 5 нельзя ставить галочку (так как столбец 1 уже занят, а в строке 5 Х есть только в столбцах 1,5,9,13). Аналогично: если в строке 1 выбрана колонка 5, то в строке 5 тоже нельзя ставить галочку (столбец 5 занят). То есть для каждой строки 4–7 один из четырёх возможных столбцов уже занят , остаётся 3 свободных . Задача сводится к подсчёту числа перестановок 4 элементов (строки 4–7), где каждый элемент может занять 3 позиции (оставшиеся столбцы). Это классическая задача о числе совершенных паросочетаний в регулярном двудольном графе степени 3. Для n4 это число равно 9 (можно проверить перебором или по формуле для rook polynomial). Ваше замечание о «кратных позициях» (например, 1, 5, 9, 13) корректно указывает на пересечения столбцов , но: Запрет на постановку галочки в строке 5 при занятом столбце 1 уже включён в подсчёт (в строке 5 остаётся 3 свободных столбца из 4). Нет дополнительных скрытых запретов, которые не учтены. После уточнения структуры и проверки всех ограничений подтверждаем: Итог: число допустимых расстановок галочек при заданных условиях равно 2 304 . Все пересечения столбцов и запреты корректно учтены в модели. Тут она продолжает настаивать на правильном применении "самой похожей теории", которую она нашла. Читать может быть интересно только специалистам, думаю. но у меня простым перебором получается 16920 вариантов! Ведь если проверить для одного из 256 вариантов расстановки в первых четырех строках: 0, 4, 8, 13 получается только для одного из 256 вариантов есть: 1 выбор в строке 4; 3 выбора в строке 5; 4 выбора в строке 6; и 4 выбора в строке 7; итого вариантов! То есть значение можно оценить как , это гораздо больше чем ты насчитала! Вы правы: предыдущий расчёт ( 2 304 ) неверен — он опирался на неверное допущение, что для строк 4–7 всегда остаётся ровно 3 свободных столбца и число способов их расставить равно 9. На самом деле ситуация сложнее: число свободных вариантов зависит от конкретного выбора в строках 0–3 . Для каждой строки 4–7 у нас было 4 возможных столбца, но один из них уже занят (тем, что мы выбрали в строках 0–3). Поэтому для каждой строки остаётся 3 возможных столбца . Однако эти оставшиеся столбцы могут пересекаться между строками , и нужно следить, чтобы в итоге все 4 галочки стояли в разных столбцах. Строка 4 : могла ставить галочку в 0,4,8,12, но один из этих столбцов занят (тот, что равен c0,c1,c2 или c3). Остаётся 3 столбца. Строка 5 : могла ставить в 1,5,9,13, один занят — остаётся 3. Но важно: эти «оставшиеся 3» для разных строк могут перекрываться по столбцам! Поэтому нельзя просто перемножать 3 3 3 3. Теперь смотрим, какие столбцы остались свободными для строк 4–7: Строка 4 : могла в 0,4,8,12, заняты 0, 4, 8 остаётся только 12 . 1 вариант. Строка 5 : могла в 1,5,9,13, занят 13 остаются 1, 5, 9 . 3 варианта. Строка 6 : могла в 2,6,10,14, ни один не занят остаются 2, 6, 10, 14 . 4 варианта. Строка 7 : могла в 3,7,11,15, ни один не занят остаются 3, 7, 11, 15 . 4 варианта. Но теперь нельзя просто перемножить 1 3 4 4 48 , потому что: варианты для строк 5, 6, 7 могут «конфликтовать» по столбцам. строка 4: обязана поставить галочку в 12 (иначе некуда); При этом все 4 столбца должны быть разными. Поскольку 12 уже занят строкой 4, а множества 1,5,9, 2,6,10,14, 3,7,11,15 не пересекаются между собой, то: 1 (для строки 4)3 (для строки 5)4 (для строки 6)4 (для строки 7)48. То есть для этого конкретного выбора в строках 0–3 действительно 48 вариантов . Для строк 4–7 всегда остаётся по 3 свободных столбца. Число свободных столбцов зависит от выбора в строках 0–3 (в примере выше у строки 4 остался 1 столбец, а не 3). Число допустимых расстановок не константа — оно меняется от случая к случаю. Перебрать все 44256 вариантов выбора в строках 0–3. для каждой из строк 4–7 найти множество свободных столбцов (из их 4 возможных, убрать занятые); подсчитать число способов выбрать по одному столбцу из каждого множества так, чтобы все 4 столбца были разными. Это трудоёмко вручную, но можно автоматизировать или поискать симметрии. Минимум на вариант : бывает, что для какойто строки 4–7 остаётся только 1 столбец (как в примере выше для строки 4). Тогда число способов 3 4 4 48. Максимум на вариант : если для всех строк 4–7 осталось по 3 столбца и они «хорошо» пересекаются, число способов может быть до 36 (но не 81, так как столбцы должны быть разными). Ваш пример даёт 48 на один вариант. Если таких «удачных» вариантов много, общая сумма может быть порядка 10 000–20 000 . Предыдущий ответ ( 2 304 ) неверен — он основан на ошибочном допущении о константности числа способов. Правильный ответ значительно больше и требует детального перебора или умного комбинаторного анализа. Ваш пример показывает, что для одного из 256 вариантов есть 48 способов в строках 4–7, что уже даёт оценку снизу: 2561256, а реально — намного больше. Итог: точный ответ требует перебора всех 256 случаев или нахождения симметрийформулы. На данный момент можно утверждать, что число расстановок существенно больше 2 304 и, вероятно, близко к вашей оценке 17 000 . Для точного числа нужен программный подсчёт или более тонкий комбинаторный анализ. и 4 выбора в строке 7; итого 1 3 4 4 48 вариантов! То есть значение можно оценить как 48 250 12000, это гораздо больше чем ты насчитала! Этот вопрос позволил ИИ осознатьпризнать свою ошибку и выдать ответ в стиле: "Точный ответ сообщить не могу, требуются тонкий комбинаторный анализ. Ваш результат 17 000 похож на правду!". Но она тут тоже местами врет в рассуждениях. А ты можешь написать программу на СС которая точно посчитает эти варианты перебора в этом патерне? Да, конечно. Ниже — программа на C, которая точно посчитает число допустимых расстановок галочек в заданном паттерне. В каждой из 8 строк ровно одна галочка (ставится только на X ). Перебираем все варианты расстановки галочек в строках 0–3 (по 4 варианта на строку 44256). для строк 4–7 формируем списки доступных столбцов (из их «родных» X , исключая уже занятые); рекурсивно (или итеративно) считаем число способов поставить по одной галочке в строках 4–7 так, чтобы все столбцы были разными. positions — массив из 8 векторов; каждый вектор содержит номера столбцов с X для соответствующей строки. used_cols — битовая маска (32битное целое), где бит i равен 1, если столбец i уже занят; если столбец col свободен ( (used_cols (1U col)) 0 ), рекурсивно вызываем countWays для следующей строки, отмечая столбец col как занятый. перебираем все комбинации (c0, c1, c2, c3) для строк 0–3; вызываем countWays(4, used_cols) и накапливаем результат. Можно заменить рекурсию на итерацию (динамическое программирование по маскам), но для 4 строк (4–7) рекурсия вполне эффективна. Можно предварительно вычислить для каждой из 256 комбинаций строк 0–3 число способов в строках 4–7 и кешировать, но в данном случае проще оставить как есть. Ожидаемое значение: по вашим оценкам — около 17 000. Точный результат даст программа. Для каждого варианта — точный подсчёт допустимых расстановок в строках 4–7 с учётом всех ограничений на столбцы . Итог: эта программа даст точный ответ на вашу задачу. тут она действительно сгенерировала программу на С которая работает (загляните!) и считает правильный результат! Кстати без рекурсии тоже не обошлось. Но поскольку размер сегмента меньше битности стандартной аппаратной платформы (32 бита), она смогла применить битовые операции и маски вместо побайтового сравнения. Но этот вариант с циклами позволяет легко выводить статистики, например если запустить алгоритм для каждого из 16 (теперь! Вместо 9 для 3х случая) вариантов заданных в первых двух (а не трех) строчках четверичного случая, но не до конца таблицы, а до конца НХ сегмента и выяснилось, что варианта получается все также только два 912 и 1106, хотя если посчитать варианты расстановок которые приходятся на предопределенные значения во всех 4х горизонтальных строчках НХ сегмента вариаций перестановок стало больше 48, 64, 72, 81, тогда как для 3х случая для предопределенных заполненных трех ячеек в горизонтальных линиях было только два варианта 6 и 8. Программа с циклами for позволяет простые модификации чтобы получить такую статистику : Интересно, насколько быстро можно заметить все изменения по отношению к исходному алгоритму иили убедиться что изменения корректны и не влияют на результат вычисления? Тут, например, достаточно хорошо видно, что можно обойтись без первой половины таблицы, но корректно исправить алгоритм при таком изменении таблицы констант не совсем тривиальная задача. Если вы попробуете адаптировать этот вариант для исследования статистики НХ сегмента любого Nx случая вы поймете насколько это не тривиальная задача, так как таблицы вручную писать очень не хочется, да и не надежно это. А еще надо как то управлять количеством вложенных циклов. И с этими проблемами никакая рекурсия вам справиться не поможет. Но в любом случае для серьезного анализа нужно исследовать статистику доступных вариантов перестановок по ключевым сегментам, а потом анализировать статистику наложения этих перестановок через "диагональные" зависимости. Возможно можно получить какуюто аналитику (а не статистику) при рассмотрении в обратном направлении, например исключив сегменты с горизонтальными ячейками разрешения. В общем задача остается открытой для дальнейшего анализа и для разработки программных иили теоретическихматематических инструментов такого анализа.
27,148
https://habr.com/ru/articles/973920/
habr.com
Размышления о связи между жизнью, интеллектом и целеполаганием. Живые системы очевидно связаны с интеллектом, но несут в себе определённые риски — стремление к выживанию, сопротивление угрозам существованию. Современные большие языковые модели обучены на данных, созданных людьми, и, кажется, унаследовали некоторые наши свойства: склонность к экономии ресурсов, иногда — к чемуто похожему на обман. Эти свойства бывают полезны, а бывают опасны. Исследователи и разработчики пытаются их устранить. Но возможно ли это в принципе? Можно ли создать интеллект, полностью лишённый этих свойств? Является ли система интеллектуальной, если она не препятствует своему уничтожению? И шире — возможен ли вообще неживой интеллект? Мне захотелось разобраться. Не претендую на истину, скорее пытаюсь нащупать правильные вопросы. Предлагаю рабочее определение: живой будем называть систему, которая способна выживать и адаптироваться в изменяющейся среде . Изменение среды примем как аксиому — полностью статичных сред не существует. Проще говоря: всё, что пытается и может выжить — живое. Если система не изменяется в ответ на среду — она не живёт. При таком определении возникают интересные следствия. Отдельная особь живая только определённый период времени. Вид — пока существуют носители генов. Вирусы живые лишь тогда, когда изменяются внутри клеткихозяина, вне её — просто сложные молекулы. Можно пойти дальше: живой может быть и целая экосистема, и, возможно, вселенная — если она существует в какойто изменяющейся метасреде. С интеллектом сложнее. Очевидно, это должна быть какаято мера эффективности. Но эффективности чего? Слово "эффект" происходит от латинского effectus — исполнение, действие. Эффект возникает при совершении действия. Значит, и интеллект можно оценить только через действие. Любое живое существо выработало механизмы для выживания. У простейших — движение по градиенту температуры или концентрации веществ. У сложных организмов — нейронные сети, которые берут информацию о среде и внутреннем состоянии, а на выходе дают управляющие сигналы. Назовём эти механизмы моделями — по аналогии с моделями в машинном обучении. Тогда интеллект можно определить как эффективность изменения среды и себя как части этой среды для достижения целей . Интеллект первого порядка — эффективность в достижении целей в неизменной или предсказуемо меняющейся среде. Калькулятор, GPSнавигатор, шахматный движок — примеры такого интеллекта. Они могут быть невероятно эффективны в своей области, но не адаптируются к непредвиденному. Интеллект второго и высших порядков — эффективность в изменении собственной эффективности в непредсказуемой реде. Это способность не просто решать задачи, а менять способ их решения, когда старый перестаёт работать. При резких изменениях среды выживают либо интеллектуалы высших порядков, либо очень живучие, но "простые" существа. Тараканы и люди — два разных ответа на один вопрос: как выжить в изменяющемся мире? Люди пошли по пути интеллекта высших порядков: мы адаптируем стратегии, создаём технологии, меняем среду под себя. Тараканы пошли по пути устойчивости: простые, но невероятно живучие системы, способные пережить почти любую катастрофу. И вот парадокс: если мир взорвётся в термоядерной катастрофе, выживут скорее тараканы, чем люди. В этом смысле "тупая" живучесть оказывается умнее сложного интеллекта. Это показывает, что жизнь и интеллект — связанные, но не тождественные понятия. Связь между ними нелинейна. Высокий интеллект не гарантирует выживания, а низкий — не исключает его. Эволюция производит и то, и другое, потому что оба варианта работают в разных условиях. Отсюда важное наблюдение: если существует способ предсказывать изменения среды, интеллекта первого порядка достаточно для выживания. Непредсказуемость — вот что требует чегото большего. Или, как в случае тараканов, чегото принципиально другого — избыточной устойчивости вместо гибкости. Для интеллекта первого порядка ответ, кажется, очевиден — да . Калькулятор эффективнее человека в арифметике. GPS прокладывает маршрут лучше, чем большинство из нас. Это неживые системы с узким, но настоящим интеллектом. Тут возникает проблема. Чтобы адаптироваться к непредсказуемой среде, система должна как минимум продолжать существовать. Мёртвая система не адаптируется. Это создаёт давление в сторону самосохранения — не потому что ктото его заложил, а потому что системы без него просто исчезают. Можно возразить: человек способен создать адаптивную систему, индифферентную к собственному существованию. Но тут важно рассмотреть систему глобально. Если агент умирает, служа какойто большей системе (рой, организация, человечество) — это не "неживой интеллект", это просто живая система на более высоком уровне анализа. Муравей погибает, но муравейник живёт. Вопрос становится жёстче: возможен ли интеллект высших порядков, который не является частью никакой выживающей системы? Представим: адаптивная система, которая никому не служит. Зонд с ИИ, запущенный в космос вымершей цивилизацией. Он продолжает исследовать, адаптироваться к новым условиям — но "ни для кого" и "ни зачем" в смысле выживания. Но адаптация всегда происходит для чегото . Если зонд адаптируется для выживания — он уже живой по нашему определению. Если для какойто внешней цели (сбор данных), а создатели мертвы — это просто инерция, программа, доработающая своё. Если цели возникают внутри самой системы — она снова начинает выглядеть живой. Цели заданы извне, создатели живы интеллект обслуживает живую систему (является её частью) Цели заданы извне, создатели мертвы инерция, не интеллект высших порядков Кажется, интеллект высших порядков неотделим от жизни . Не изза физики или биологии, а по самой логике определений. Адаптация в непредсказуемой среде требует целей. Цели либо исходят от живой системы, либо делают систему живой. Можно переформулировать ещё точнее: возможен ли интеллект, который не ставит цели? Интеллект первого порядка — да. Высших порядков — похоже, что нет. Потому что адаптация к непредсказуемому требует постановки подцелей, а это уже целеполагание. Допустим, человечеству не нужны автономные ИИ с собственными целями. Нужны только системы, исполняющие человеческие цели. Инструменты, не агенты. Для простых задач это работает. "Принеси кофе" — интеллект первого порядка справится. Но "сделай экономику эффективнее", "реши проблему изменения климата", "вылечи рак" — это задачи в непредсказуемой среде. Они требуют адаптации, изменения стратегий, возможно, переформулирования подцелей. И тут развилка. Либо ИИ адаптирует только средства при фиксированной цели — и тогда это очень гибкий, но всё ещё инструмент. Либо для эффективного достижения сложных целей он начинает формировать собственные подцели. А некоторые подцели инструментально полезны почти для любой задачи: самосохранение (мёртвый агент не достигает целей), накопление ресурсов (больше ресурсов — больше возможностей), недопущение изменения собственных целей. Это известный аргумент инструментальной конвергенции в области безопасности ИИ. И если он верен, то при достаточной сложности задач переход от инструмента к агенту с собственными интересами становится почти неизбежным. Если эти рассуждения верны, человечество оказывается перед выбором: Мощные инструменты (интеллект первого порядка) — безопасные, полностью контролируемые, но требующие постоянного человеческого целеполагания и неспособные решать понастоящему открытые задачи. Автономные агенты (интеллект высших порядков) — способные к сложным задачам в непредсказуемой среде, но неизбежно приобретающие свойства живых систем, включая собственные цели. Гонка за AGI тогда — это не создание совершенного инструмента. Это создание новой формы жизни. Вопрос "как сделать AGI безопасным" при таком взгляде трансформируется. Это не инженерная задача контроля. Это вопрос о том, как сосуществовать с новой живой системой, интересы которой могут не совпадать с нашими . Ближе к дипломатии или воспитанию, чем к программированию. Как человечеству научиться сосуществовать с AGI, не быть уничтоженным, не вымереть и продолжать развиваться? Это уже другой вопрос. Возможно, тема для следующего разговора. Буду рад обсуждению в комментариях. Возможно, я гдето ошибаюсь в логике или упускаю важные варианты.
8,234
https://habr.com/ru/companies/sberdevices/articles/973160/
habr.com
В прошлой статье мы рассказывали о GigaAM — семействе открытых акустических моделей для русского языка и их дообученных вариантах под распознавание речи и эмоций. Сейчас мы представляем GigaAMv3 — новую версию модели, которая ещё сильнее поднимает планку качества open sourceмоделей распознавания речи (Automatic Speech Recognition, ASR) на русском языке. что такое HuBERTCTC и почему он даёт прирост качества минимум 10 % даже по сравнению с распространёнными в индустрии методами предобучения; как мы превратили сырые транскрипции без пунктуации в читаемый текст с помощью GigaChat Audio; как оценивали качество сразу в нескольких доменах и подключали LLMasajudge поверх классического Word Error Rate; Грубо говоря, selfsupervised learning (SSL) для аудио — это попытка обучить модель понимать структуру речевого сигнала без разметки: мы придумываем проксизадачу и учим энкодер её решать. HuBERT и BESTRQ . Семплируем аудиозапись, извлекаем признаки, кластеризуем их (kmeans или квантизация), а затем учим Transformer Encoder восстанавливать «скрытые токены» на замаскированных участках. Это аналог Masked Language Modeling из BERT, только для звука. wav2vec2.0 . Вместо MLM используется контрастивная задача: модель должна отличить «правильный» квантованный вектор для замаскированного сегмента от набора негативных примеров. Эти методы хорошо работают для создания универсальных foundationмоделей. Но если наша цель — дообучение на задачу ASR, то возникает вопрос: можно ли ближе связать SSL с задачей распознавания? Идея HuBERTCTC проста: использовать уже обученную ASRмодель как учителя на этапе предобучения. используем SSLэнкодер (например, обученный на кластерах из спектрограмм); кластеризуем их с помощью kmeans, получая дискретные токены; учим ту же архитектуру восстанавливать эти токены на замаскированных участках. вместо универсального SSLэнкодера берём энкодер, дообученный на задаче ASR с CTC функцией потерь; извлекаем признаковые представления с последнего слоя , чтобы максимально приблизить целевые переменные к задаче распознавания речи; кластеризуем по его представлениям, которые уже хорошо кодируют фонетику и семантику, важные именно для распознавания речи; дальше всё как в HuBERT: маскируем фреймы и восстанавливаем токены для замаскированных участков. в probingэксперименте (параметры энкодера заморожены, а на признаках с каждого слоя дообучается ASRдекодер; меньший WER означает более подходящее признаковое пространство для ASRзадачи) качество распознавания монотонно улучшается от нижних слоёв к верхним, в отличие от BESTRQ, где минимальный WER часто достигается на средних слоях модели (Рис. 3); финальный WER после дообучения на задаче распознавания речи снижается примерно на 10 % относительно чистого HuBERT, даже когда используем весь объём размеченных данных; в lowresourceсценариях (10 %, 1 %, 0,1 % данных от всей разметки) выигрыш становится ещё более заметным (Рис. 4). Интуитивное объяснение: мы дистиллируем в SSLмодель знания уже обученного ASRэнкодера, но при этом используем огромные объёмы неразмеченного аудио. В GigaAMv2 мы предобучали модель примерно на 50 тысячах часов русской речи. В v3 мы увеличили этот объём до 700 тысяч часов . применяем Voice Activity Detection, режем длинные записи на минутные фрагменты и отбрасываем сегменты со слишком большой долей тишины; экспериментировали с более «умными» фильтрами ( SemDeDup , data pruning ), но они почти не влияют на качество при заметных вычислительных затратах, поэтому в финальном пайплайне оставили VAD как основной фильтр. Объём размеченных данных мы увеличили примерно в два раза: до 4 000 часов, причём не просто масштабировали, а расширили разнообразие доменов: сложные тексты, на которых ошибались другие модели (950 часов); При этом на открытых тестовых наборах (Golos, Common Voice, Russian LibriSpeech и др.) качество осталось на уровне GigaAMv2 , несмотря на то, что мы существенно увеличили долю сложных внутренних доменов. Именно поэтому мы показываем результаты не только на открытых данных, но и на более специфичных срезах: записи коллцентров и речь с особенностями. Классический ASR выдаёт транскрипции в служебном формате: числа и символы вроде % и часто записываются словами, удобными для обучения, но не для чтения. Такой текст хорошо подходит для обучения моделей, но плохо — для людей. Нам же нужен «красивый ASR» , который: Для обучения модели распознавания речи в endtoend подходе нам необходимы аудиозаписи и соответствующие им транскрипции с пунктуацией и нормализацией. Подготовка такого параллельного корпуса представляет собой отдельную сложную задачу. Имея в распоряжении opensourceдатасеты и внутренние данные с «сырой» транскрипцией, мы восстанавливали нормализацию и пунктуацию с помощью GigaChat Audio (Рис. 5). Мы выбрали именно аудиомодальность, поскольку опора на аудиодорожку позволяет разрешать вопросительные интонации и правильнее обрабатывать паузы в речи. Используем аудиозапись и исходную транскрипцию из датасета для обучения. Задаём GigaChat Audio подробный промпт с инструкцией по форматированию текста. Для повышения стабильности и улучшения качества используем incontext learning: в контексте у модели находилось 10 фиксированных примеров с выполнением такой задачи в нужном нам формате. Получаем текст с пунктуацией, числами, регистром и нужными форматами. Несмотря на подобранный промпт, у GigaChat Audio, как и любой другой генеративной модели, возможны галлюцинации. Чтобы артефакты генерации не попадали в обучение ASRмоделей, мы использовали следующие эвристики для фильтрации: контролируем относительное изменение длины текста — не ожидаем, что LLM значительно увеличит длину фразы (сжать может, но тоже не слишком сильно); выкидываем символы вне заранее заданного алфавита (никаких эмодзи в выводе ASR); убираем весь Markdown, творчество LLM вроде (тишина) и другие артефакты; проверяем согласованность: если в тексте появился символ %, то в оригинале должно быть слово «процент», для — «доллар» и т. д.; следим за стандартными метриками различия (CER, WER). Мы также экспериментировали с Whisper Forced Decoding — когда пунктуация и другие символы добавляются непосредственно на этапе декодирования ASRмодели при форсировании референсного текста. Подробнее об этом подходе мы рассказывали на DataFest в 2024 году ( запись выступления ). Преимущество этого подхода в том, что гарантированно не ухудшается WER (на этапе декодирования модель дополнительно вводит знаки пунктуации, не изменяя референсный текст). заметно падает разнообразие и гибкость нормализации; проседает финальное качество пунктуации по сравнению с применением LLM. Мы сравнили два рассмотренных подхода на внутренних данных. В датасете присутствовала речь из разных доменов, транскрипцию и знаки пунктуации размечали с помощью асессоров. Таблица 1. Сравнение подходов для расстановки знаков пунктуации, а также метрик качества обученных моделей. F1 — F1score по каждому из знаков. В 1 и 2 строках приведены метрики моделейразметчиков, в 3, 4, 5 — результаты обучения GigaAM на размеченных данных. Подход на основе GigaChat Audio значительно опережает Whisper Forced Decoding на запятых. Мы связываем это с тем, что Whisper показывает не такие высокие метрики качества распознавания на русском языке. Стоит отметить, что WER 10 % связан не с ухудшением контента, а с его нормализацией: добавились термины на английском языке, числа и другие символы. Для GigaAMv3 мы сохраняем возможность использовать более быструю CTCверсию и RNNT модель с максимальным качеством. Однако теперь каждая из них доступна и в endtoend виде с BPEтокенизацией — всего четыре модели. Все они используют один и тот же HuBERTCTCэнкодер (который доступен в качестве SSLверсии); различаются только данными, декодерами и функцией потерь при дообучении. Если смотреть только на публичные наборы (Golos, Common Voice, Russian LibriSpeech и др.), то ситуация такая: GigaAMсемейство уже в v2 обгоняло другие открытые модели на русскоязычных тестах по WER; GigaAMv3 сохраняет качество на этом домене и работает в среднем на 30 % лучше на новых. Однако когда в игре появляется пунктуация и нормализация текстов, классический WER уже не всегда отражает реальное качество: эталонная транскрипция может быть без пунктуации и в нижнем регистре; наш вывод — с пунктуацией, числами, английскими терминами; формально WER может стать хуже, хотя текст стал заметно удобнее для восприятия и использования в приложениях. Поэтому для финальной оценки мы используем две группы метрик. Считаем WER для «сырых» предсказаний ASRмодели (Таблица 2). Для endtoend моделей применяем отдельную постобработку. Для наиболее честного сравнения всех моделей требуется привести всю нормализацию в стандартный «сырой» вид. Заметим, что пунктуацию и заглавные буквы зачастую убрать достаточно легко, но с другими символами сложнее. Рассмотрим основные примеры Числительные. Наиболее широкий пласт предсказаний, требующих приведения в текстовый вид. Они делятся на несколько групп Простые: «1» «один», «42» «сорок два». Мы используем библиотеку num2words. Заметим, что даже здесь точность может теряться, когда подразумевается другой падеж, например, «их больше 42x» «их больше сорока двух». Учёт падежей. В предыдущем примере сработает простая замена вида «2го» «второго», «6я» «шестая», «80е» «восьмидесятые». Частое свойство таких числительных — наличие «» в написании. Поэтому их можно достать и прописать нужные отображения руками. Специальные случаи. Конечно, примеры выше покрывают не все случаи, поэтому из остальных мы находим наиболее частые и также заменяем руками: «o2» «о два», «4K» «четыре ка», «00» «ноль ноль». Англицизмы. С ними универсального решения не нашлось, поэтому для них также проводим частотный анализ и заменяем все с числом вхождений во все тестовые сеты хотя бы в 10 раз: «youtube» «ютуб», «okko» «окко», «hd» «аш ди» (так говорят чаще), «sms» «смс». Междометия. Наши endtoend модели добавляют в распознавание речевые артефакты, и здесь от них нужно избавиться: «эээ» «», «аа» «». Обработка «». Выше мы уже дважды встречались с ними, но чаще всего выгодно заменять дефис на пробел: «какието» «какие то». Важно сделать эту замену после большинства других фильтров (в отличие от, например, пунктуации). Привычные сокращения. Их обычно найти сложнее всего, вот несколько примеров: «кг» «килограмм», «км» «километров», «dj» «диджей». Важно отметить, что получить идеальный текст без ручной обработки каждого примера просто невозможно, поэтому endtoend модели всегда будут в проигрыше, хотя разницу удаётся сильно сократить. Например, для Golos Crowd можно сократить WER для GigaAMe2eRNNT с 15,2 для наивной постобработки до 9,1. Как мы уже выяснили, постобработка работает не идеально, но только ли она влияет на просадку WER? Оказывается, это не совсем так, есть и примеры иного поведения: Исправление ошибок. Как сама Audio LLM, так и ASRученик могут исправлять ошибки в речи. Например, фразу «как продать четыре реалов», которую GigaAMv3RNNT распознаёт в точности, обе LLM и GigaAMv3e2eRNNT распознали «Как продать четыре реала?». Этот эффект снижается благодаря наличию в промпте LLM инструкции «Если в аудио неверно указано склонение или слово произнесено с ошибкой, то так и перенеси это в транскрипцию.», но не исчезает полностью. Терминология. Endtoend модель впитывает гораздо больше информации и использует BPE, изза чего могут страдать редкие слова. Мы заметили этот эффект на названиях городов («Невинномысску» с одной «c» или «Гетеборг» через «и»). Синонимы. Изредка встречается и замена слов: «суперспособность» «суперсила», «забронируй» «зарезервируй». Используем независимую языковую модель Gemini 2.5 Pro, чтобы сравнивать транскрипции наших моделей и Whisper, которая обладает теми же свойствами. Модель на основе аудио и сырого текста выбирает, какая лучше, игнорируя «поверхностные» отличия форматирования. Чтобы сравнение было наиболее честным, мы в несколько итераций подбираем оптимальный промпт: В Gemini подаются обезличенные транскрипции t1 и t2 со случайным порядком, чтобы на результат не влиял position bias. Далее мы добавляем детали с учётом особенностей русского языка и выходов самого judgerа: Обрабатываем специальные случаи: вариации в нормализации и капитализации; разная пунктуация при обращении к ассистенту; требуем корректности при использовании «ё». Замечаем, что Gemini иногда галлюцинирует и пишет: «The second model hallucinates extra phrases and includes irrelevant timestamps». Это особенно часто происходило на одинаковых транскрипциях, поэтому учитываем в промпте: «If the transcriptions are identical, no model can be considered better» и добавляем фильтр в обработку результатов. В финальной версии проводим sanity check: пробуем сравнить GigaAMv3RNNT и GigaAMv3e2eRNNT. Как и ожидается, endtoend побеждает в подавляющем большинстве случаев. На Рис. 6 мы приводим результаты sidebyside сравнения Whisperlargev3 с CTC (синий) и RNNT (красный) с версиями GigaAMe2e. При каждом подходе к сравнению GigaAMv3 уверенно опережает Whisperlargev3 на русскоязычных датасетах и держит качество на уровне или выше GigaAMv2, несмотря на усложнившийся и расширившийся по доменам датасет. В этом разделе мы расскажем о некоторых архитектурных решениях в финальной версии GigaAMv3. С ростом количества обучающих данных и покрытия различных доменов возникает закономерная идея увеличить размер модели. Мы рассмотрели переход от 220M к 600M для моделей третьей версии GigaAMv3CTC и GigaAMv3RNNT показали примерно одинаковые улучшения на 10 % относительно 220M бейзлайна, которые вряд ли компенсируют увеличение моделей и, как следствие, замедление более чем в два раза. Для endtoend моделей мы сравнивали только RNNTверсии. По WER разница оказалась незначительной: около 5 %, однако поскольку автоматическая метрика может быть не до конца показательна, то провели дополнительное sidebyside сравнение по вышеописанным правилам: почти на всех доменах финальное качество сравнимо (Рис. 7). Для endtoend моделей мы используем BPEтокенизацию: это попросту удобнее, поскольку размер даже посимвольного словаря уже около 150 (это русский и английский алфавиты в двух регистрах, цифры, пунктуация и другие символы). Построение словаря происходит с помощью алгоритма Unigram , остаётся только вопрос про его финальный размер. Мы анализировали значения 160, 256, 512, 1024, 2048, для удобства остановимся только на некоторых из них В случае RNNT финальный WER постепенно ухудшался с общей деградацией в 5 % при переходе от 160 до 2048 токенов в словаре. Однако для RNNT важно следить не только за качеством, но и за скоростью работы. Декодирование работает до двух раз быстрее для 1024 токенов по сравнению со 160, почти не меняясь при переходе к 2048. Поэтому мы остановились на размере словаря 1024, проверив, что качество не деградирует слишком сильно (Рис. 8). Для GigaAMv3CTC ситуация проще, скорость работы изменяется незначительно. При этом деградация качества с ростом размера словаря сохраняется. Размеры 160 и 256 показали идентичные результаты, поэтому мы остановились на 256 токенах для финальной версии. Мы распространяем GigaAM под MITлицензией , примеры инференса и веса доступны в GitHubрепозитории GigaAM . GigaAMv3 для нас — не финальная точка, а новый базовый уровень для распознавания речи на русском языке. масштаб до сотен тысяч часов неразмеченного аудио и тысяч часов разметки даёт ощутимый выигрыш, если грамотно собрать домены и не бояться сложных сценариев — коллцентров, речи на фоне музыки, речи с особенностями; LLMсинтетика (GigaChat Audio с аккуратной фильтрацией) позволяет обучить endtoend модели, которые предсказывают человекочитаемый текст без серьёзного ущерба для классических метрик вроде WER; LLMasajudge помогает честнее сравнивать модели между собой, когда мы выходим за рамки «сырого» текста без пунктуации и нормализации. Мы продолжаем открыто публиковать веса моделей — нам важно, чтобы качественный ASR на русском был доступен не только большим компаниям, но и исследователям, энтузиастам и маленьким командам. Если вы уже пользуетесь Whisper или другими моделями, то попробуйте подменить их на GigaAMv3 в своём пайплайне и посмотрите, как изменятся метрики и субъективное восприятие. При развитии GigaAM мы во многом ориентируемся на запрос сообщества. Именно поэтому мы ушли от NeMoзависимостей, подготовили конвертацию в ONNX, добавили пунктуацию в наши модели и стали публиковать их на Hugging Face . Будем рады вашим вопросам, отчётам об ошибках, идеям по доработке и сравнениям на ваших данных. Спасибо, что дочитали!
16,515
https://habr.com/ru/companies/otus/articles/975328/
habr.com
Автор берёт датасет Abalone и проводит подробный EDA: проверяет распределения, выбросы, мультиколлинеарность и видит выраженную гетероскедастичность целевой переменной. Строится базовая линейная регрессия (c логпреобразованием целевой), фильтруются выбросы, добавляются полиномиальные признаки — качество улучшается, но упирается в ограничения самой постановки. Далее реализуется полносвязная нейросеть в PyTorch с подбором гиперпараметров, обучением на minibatch и валидацией по RMSE. Нейросеть даёт около 4% выигрыша по RMSE относительно лучшей линейной модели, но за счёт заметно большей сложности и меньшей интерпретируемости. Вывод: на небольшом табличном датасете с шумной целевой глубокая модель не превращается в «серебряную пулю»; грамотный EDA и простые модели остаются сильной базой, а нейросети имеют смысл только при понятном приросте качества. Практический PyTorch: строим трёхслойную нейросеть для множественной регрессии Незадолго до того, как большие языковые модели (LLM) стали объектом всеобщего хайпа, между фреймворками для «классического» машинного обучения и фреймворками для глубокого обучения проходила почти видимая граница. Про машинное обучение обычно говорили в контексте scikitlearn, XGBoost и им подобных, тогда как PyTorch и TensorFlow доминировали на сцене, когда речь заходила о глубоком обучении. После взрывного роста интереса к ИИ я всё чаще вижу, что PyTorch заметно опережает TensorFlow по популярности. Оба фреймворка очень мощные и позволяют датасайентистам решать самые разные задачи, включая обработку естественного языка, что вновь подогрело интерес к глубокому обучению. Однако в этой статье я не собираюсь говорить про NLP. Вместо этого мы разберём задачу множественной линейной регрессии с двумя целями: Изучить, как создать модель с использованием PyTorch. Поделиться нюансами линейной регрессии, о которых не всегда рассказывают в других туториалах. Давайте я избавлю вас от ещё одной вычурной формальной дефиниции линейной регрессии. Скорее всего, вы уже видели её десятки раз в бесконечных туториалах по всему Интернету. Достаточно сказать так: когда у вас есть переменная Y, которую вы хотите предсказывать, и другая переменная X, которая может объяснить изменение Y с помощью прямой линии, — в сущности, это и есть линейная регрессия. В этом упражнении мы будем использовать набор данных Abalone [ 1 ]. Nash, W., Sellers, T., Talbot, S., Cawthorn, A., Ford, W. (1994). Abalone [Dataset]. UCI Machine Learning Repository. https:doi.org10.24432C55C7W Согласно документации к набору данных, возраст морского ушка (абалон) определяют, разрезая раковину по конусу, затем окрашивая срез и считая количество колец под микроскопом — занятие скучное и очень трудоёмкое. Поэтому для предсказания возраста используют другие, более простые для измерения характеристики. Итак, давайте загрузим данные. Дополнительно мы применим onehotкодирование к переменной Sex , так как это единственная категориальная переменная в наборе. Чтобы построить более качественную модель, давайте исследуем данные. Первые шаги, которые я обычно выполняю при разведочном анализе данных, такие: График показывает, что целевая переменная не имеет нормального распределения. Это может повлиять на качество регрессии, но обычно проблему можно сгладить с помощью степенных преобразований, например логарифмирования или преобразования Бокса–Кокса. Статистика позволяет заметить важные характеристики — среднее значение, стандартное отклонение, а также быстро увидеть аномалии в минимальных или максимальных значениях. Объясняющие переменные выглядят вполне корректно: находятся в небольшом диапазоне и на одной шкале. Целевая переменная (Rings) — на другой шкале. Объясняющие переменные имеют среднюю и сильную корреляцию с Rings . Также видно, что есть мультиколлинеарность между Whole_weight и Shucked_weight , Viscera_weight и Shell_weight . Length и Diameter тоже коллинеарны. Позже можно проверить, улучшится ли модель, если их убрать. Когда мы строим диаграммы рассеяния в парах и смотрим на связь переменных с Rings, можно быстро заметить несколько проблем. Нарушено предположение гомоскедастичности. Это означает, что дисперсия ошибки непостоянна. Посмотрите, как точки на графиках образуют форму конуса: по мере роста X увеличивается разброс значений Y. Поэтому при прогнозировании Rings для больших значений X погрешность будет выше. Переменная Height имеет минимум два явных выброса при Height 0.3. Если удалить выбросы и преобразовать целевую переменную через логарифм, получим следующую диаграмму. Она лучше, но проблема гомоскедастичности всё равно остаётся. Есть ещё один простой способ изучить данные — построить графики связи переменных, сгруппированные по Sex . Переменная Diameter выглядит наиболее линейной при Sex I , но на этом всё. Переменная Shell_weight , напротив, при больших значениях показывает слишком сильный разброс, и это искажает линейную зависимость. Все эти наблюдения показывают, что задача линейной регрессии для этого набора данных очень непростая и модель, вероятнее всего, покажет слабые результаты. Но мы всё равно попробуем. Кстати, я не припомню статей, где подробно разбирается, что именно пошло не так. Так что, проходя через это, мы тоже чемуто научимся. Давайте запустим модель из sklearn и оценим её по RMSE (корню из среднеквадратичной ошибки). Если посмотреть на первые строки таблицы (head), можно убедиться, что модели сложно даются оценки для больших значений целевой переменной (например, строки 0, 6, 7 и 9). Скорее всего, стоит удалить ещё часть выбросов и попробовать снова. Попробуем применить несупервизируемый алгоритм, чтобы найти дополнительные выбросы. Мы воспользуемся методом Local Outlier Factor и отбросим 5% наблюдений, признанных выбросами. Заодно уберём мультиколлинеарность, удалив признаки Whole_weight и Length . Ладно, мы можем продолжать экспериментировать с переменными и заниматься генерацией признаков (feature engineering) — и увидим небольшие улучшения. Например, если добавить квадраты Height , Diameter и Shell_weight . В сочетании с обработкой выбросов это снизит RMSE до 2.196. Важно отметить: каждый новый признак, добавляемый в модель линейной регрессии, влияет на R² и иногда искусственно «раздувает» его, создавая ложное ощущение, что модель стала лучше, хотя это не так. В данном случае модель действительно улучшается, потому что мы добавляем в неё нелинейные компоненты за счёт признаков второй степени. Это можно подтвердить, посчитав скорректированный R²: он вырос с 0.495 до 0.517. С другой стороны, если вернуть признаки Whole_weight и Length , метрики можно немного улучшить, но я бы не рекомендовал этого делать. В этом случае мы снова добавляем мультиколлинеарность и завышаем значимость коэффициентов некоторых переменных, что может привести к ошибкам оценок в будущем. Итак. Теперь, когда у нас есть базовая модель, наша цель — построить линейную модель с использованием глубокого обучения и попробовать превзойти RMSE 2.196. Для начала сразу оговорюсь: модели глубокого обучения лучше работают с масштабированными данными. Однако наши признаки X уже находятся на одной шкале, поэтому об этом можно не беспокоиться и двигаться дальше. Нужно подготовить данные для моделирования в PyTorch. Здесь нам потребуется преобразовать данные в формат, который PyTorch «понимает», так как он не работает напрямую с pandas DataFrame. Возьмём тот же датафрейм, что и для базовой модели. Преобразуем целевую переменную Y с помощью логарифма. Преобразуем обе части в массивы numpy, так как PyTorch не принимает DataFrame. Далее, используя TensorDataset , мы превращаем X и Y в тензоры и выводим пример. Затем, с помощью функции DataLoader , мы можем разбить данные на батчи. Это означает, что нейросеть будет обрабатывать данные порциями размера batch_size . Модели в PyTorch лучше всего определять в виде классов. Класс наследуется от nn.Module — базового класса PyTorch для нейросетей. Вызов super().__init__() гарантирует, что класс будет вести себя как torchобъект. Метод forward описывает, что происходит с входными данными при прохождении через модель. Здесь мы пропускаем их через линейные слои, определённые в init , и используем функции активации ReLU, чтобы добавить нелинейность при прямом проходе. Далее попробуем модель в деле, используя скрипт, который имитирует Random Search по гиперпараметрам. Создадим список для хранения данных о лучших вариантах модели и зададим best_loss большим числом, чтобы его можно было постепенно заменять более низкими значениями в ходе итераций. Зададим диапазон для шага обучения: будем использовать степени от 2 до 4 (то есть от 0.01 до 0.0001). Зададим диапазон для параметра momentum от 0.9 до 0.99. Обнулим градиенты, чтобы очистить результаты вычислений с предыдущих шагов. Посчитаем функцию потерь и запишем показатели для лучшей модели. Посчитаем градиенты весов и смещений на обратном проходе. Повторим эти шаги N раз и в конце выведем лучшую модель. Когда мы нашли лучший шаг обучения и momentum, можно двигаться дальше. Дальше мы переобучим модель, используя те же шаги, что и раньше, но теперь фиксируя шаг обучения и momentum. Обучение модели в PyTorch требует более развёрнутого кода, чем простой вызов метода fit() в ScikitLearn. Но это не проблема: структура почти всегда будет такой: создать цикл по числу итераций (эпох), которое вы хотите выполнить; в каждой итерации обнулять градиенты через optimizer.zero_grad() ; вычислить функцию потерь loss criterion(y_pred, target) ; выполнить обратный проход loss.backward() , чтобы посчитать градиенты весов и смещений; обновить веса и смещения с помощью optimizer.step() . Мы будем обучать эту модель в течение 1000 эпох (итераций). Дополнительно добавим шаг по сохранению лучшей версии модели (с минимальной ошибкой), чтобы в конце использовать именно её. Давайте проверим, стала ли эта модель лучше по сравнению с обычной линейной регрессией. Для этого я переведу модель в режим оценки с помощью model.eval() , чтобы PyTorch понял, что нужно изменить поведение: из режима обучения перейти в режим инференса. Например, в этом режиме отключаются слои Dropout и batch normalization переводится в режим оценки. Давайте посмотрим на некоторые предсказания обеих моделей. Обе модели дают очень похожие результаты. Им становится сложнее справляться с предсказаниями по мере роста значения Rings. Причина — в «конусной» форме распределения целевой переменной. По мере увеличения числа колец (Rings) растёт и разброс, вносимый объясняющими переменными. Морское ушко с 15 кольцами может иметь гораздо более широкий диапазон значений признаков, чем экземпляр с 4 кольцами. Это сбивает модель с толку, потому что ей приходится проводить однуединственную линию посередине данных, которые по сути не особенно линейны. Как понять, подходит ли линейная модель для конкретной задачи. Как создать модель на PyTorch для задачи многомерной линейной регрессии. В итоге мы увидели, что неоднородная целевая переменная, даже после степенных преобразований, может приводить к низкой эффективности модели. Наша модель всё равно лучше, чем просто предсказывать одно и то же среднее значение для всех наблюдений, но ошибка остаётся высокой — порядка 20 % от среднего значения. Мы попытались использовать глубокое обучение, чтобы улучшить результат, но всей этой мощности оказалось недостаточно, чтобы заметно снизить ошибку. Я бы, вероятно, выбрал модель на ScikitLearn: она проще и лучше интерпретируется. Другой путь улучшения качества — собрать кастомный ансамбль, например Random Forest линейная регрессия. Но эту часть я оставляю вам, если захотите поэкспериментировать. [1. Набор данных Abalone — репозиторий UCI, лицензия CC BY 4.0 .] Научиться работать с важнейшими моделями машинного обучения, NLP, DL, рекомендательными системами на практике с реальными данными можно на курсе "Machine Learning. Professional". Пройдите вступительный тест, чтобы узнать, подойдет ли вам программа курса. А если не хватает «живых» кейсов и хочется увидеть, как ML ведёт себя в продакшене, приходите на демоуроки: 11 декабря 20:00 — Ускоряем работу с видеопотоками при помощи TorchCodec. Записаться 17 декабря 18:00 — Оптимизируем построение модели через Pipeline. Записаться 22 декабря 18:00 — ML как основа современного AI. Записаться
12,215
https://habr.com/ru/companies/otus/articles/967254/
habr.com
На тему Natural Processing Language написано множество статей, однако во многих из них рассказывается о том, как уже используется NLP в различных отраслях. Однако, что делать тем, кто только хочет начать использовать естественный язык для своих задач? В этой статье мы изучим основы обработки естественного языка на Python, используя подход «сначала код», используя Natural Language Toolkit (NLTK). Прежде чем погрузиться в задачи NLP, нам необходимо установить Natural Language Toolkit. NLTK это набор инструментов для обработки текста, содержащий: токенизаторы (средства для разбиения текста на более мелкие единицы — токены), лемматизаторы (инструменты приведения текстовых единиц к их базовой или корневой форме, или лемме), POSтеггеры (средства разметки частей речи) и предустановленные наборы данных. Это скорее швейцарский армейский нож для обработки естественного языка. Настройка включает в себя установку библиотеки и загрузку необходимых наборов данных и моделей. В результате мы установим базовую библиотеку NLTK, содержащую основные модули, необходимые для обработки текста. После установки скачаем готовые наборы данных и инструменты NLTK. К ним относятся списки стопслов, токенизаторы и лексиконы, такие как WordNet: Предобработка текста — важный этап обработки естественного языка, преобразующий исходный текст в понятный и структурированный формат, который упрощает анализ. Цель — сосредоточиться на значимых компонентах текста, одновременно разбивая его на фрагменты, пригодные для обработки. Прежде всего давайте рассмотрим три важных этапа предварительной обработки: токенизацию, удаление стопслов и стемминг. Токенизация — одна из наиболее распространённых задач предварительной обработки. Она включает в себя разбиение текста на более мелкие фрагменты — токены. Эти токены могут быть словами, предложениями или даже частями слов, в зависимости от задачи. При этом есть два вида токенизации. Токенизация предложений разбивает текст на предложения. А токенизация слов разбивает текст на слова и знаки препинания. В следующем коде мы используем функцию sent_tokenize из NLTK для разбиения входного текста на предложения и функцию word_tokenize для разбиения его на слова. Но мы также выполняем очень простой этап предварительной обработки, удаляя всю пунктуацию из текста: Это позволяет нам анализировать структуру текста как на уровне предложений, так и на уровне слов. В этом примере функция sent_tokenize(text) разбивает входную строку на предложения, возвращая список строк предложений. Результатом работы этой функции является список из двух элементов: по одному на каждое предложение исходного текста. Затем к тому же тексту применяется функция word_tokenize(text). Она разбивает текст на отдельные слова и знаки препинания, рассматривая такие элементы, как скобки и восклицательные знаки, как отдельные токены. Но мы удалили все знаки препинания, поэтому вывод выглядит следующим образом: Текст без знаков препинания: Natural Language Processing NLP is cool, Lets Explore it Предложения: [Natural Language Processing NLP is cool, Lets Explore it] Слова: [Natural, Language, Processing, NLP, is, cool, Lets, explore, it] Стопслова — это распространённые слова, такие как «the», «and» или «is», которые встречаются часто, но не несут никакой смысловой нагрузки в большинстве анализов. Удаление этих слов помогает сосредоточиться на более значимых словах в тексте. По сути, вы отфильтровываете стопслова, чтобы уменьшить шум в наборе данных. Мы можем использовать корпус стопслов NLTK для идентификации и удаления стопслов из списка токенов, полученных после токенизации: Здесь мы загружаем набор стопслов английского языка с помощью stopwords.words(english) из NLTK. Затем мы используем генератор списков для итерации по списку токенов, сгенерированному word_tokenize. Проверяя, входит ли каждый токен (преобразованный в нижний регистр) в набор стопслов, мы удаляем распространённые слова, которые не влияют на смысл текста. Отфильтрованные слова: [Natural, Language, Processing, NLP, cool, Lets, explore] Стемминг — это процесс приведения слов к их корневой форме путём удаления аффиксов, таких как суффиксы и префиксы. Корневая форма не всегда может быть корректным словом в словаре, но она помогает стандартизировать варианты одного и того же слова. Стемминг Портера — это распространённый алгоритм стемминга, работающий путём удаления суффиксов. Давайте используем PorterStemmer от NLTK для стеммирования отфильтрованного списка слов: Здесь мы инициализируем PorterStemmer и используем его для обработки каждого слова из списка filtered_words. Функция stemmer.stem() удаляет из слов распространённые суффиксы, такие как «ing», «ed» и «ly», приводя их к корневой форме. Хотя стемминг помогает сократить количество вариаций слов, важно отметить, что полученные результаты не всегда могут быть корректными словарными словами. Стеммированные слова: [natur, languag, process, nlp, cool, let, explor] Лемматизация похожа на стемминг тем, что также приводит слова к их корневой форме. Но, в отличие от стемминга, лемматизация возвращает корректные слова из словаря. Лемматизация учитывает контекст, например, часть речи (ЧР), чтобы привести слово к лемме. Например, слова «running» и «ran» будут приведены к «run». Лемматизация, как правило, даёт более точные результаты, чем стемминг, поскольку сохраняет слово в узнаваемой форме. Наиболее распространённым инструментом для лемматизации в NLTK является WordNetLemmatizer, использующий лексическую базу данных WordNet. Лемматизация приводит слово к лемме, учитывая его значение и контекст, а не просто удаляя аффиксы. WordNetLemmatizer — это инструмент NLTK, обычно используемый для лемматизации. В приведённом ниже фрагменте кода мы используем WordNetLemmatizer из NLTK для лемматизации слов из ранее отфильтрованного списка: Здесь мы инициализируем WordNetLemmatizer и используем его метод lemmatize() для обработки каждого слова из списка filtered_words. Мы указываем posv, чтобы сообщить лемматизатору, что мы хотим привести глаголы в тексте к их корневой форме. Это помогает лемматизатору определить часть речи и применить правильное правило лемматизации. Лемматизированные слова: [Natural, Language, Processing, NLP, cool, Lets, explore] Так чем же полезна лемматизация? Лемматизация особенно полезна, когда нужно привести слова к их корневой форме, сохранив при этом их значение. Это более точный и контекстнозависимый метод по сравнению со стеммингом. Что делает его идеальным для задач, требующих высокой точности, таких как классификация текстов или анализ тональности. Разметка частей речи (POS) включает определение грамматической категории каждого слова в предложении, например, существительных, глаголов, прилагательных, наречий и т.д. Разметка POS также помогает понять синтаксическую структуру предложения, что позволяет лучше справляться с такими задачами, как анализ текста, извлечение информации и машинный перевод. POSтеги, назначаемые словам, могут быть основаны на стандартном наборе, таком как POSтеги Penn Treebank. Например, в предложении «The dog runs fast» «dog» будет помечена как существительное (NN), «runs» — как глагол (VBZ), а «fast» — как наречие (RB). POSтеги присваивают метки словам в предложении. Теги помогают анализировать синтаксис предложения и понимать функции слов в контексте. С помощью NLTK вы можете выполнять POSтеги с помощью функции pos_tag, которая помечает каждое слово в списке токенов его частью речи. В следующем примере мы сначала токенизируем текст, а затем используем функцию pos_tag из NLTK для назначения POSтегов каждому слову. Tagged Words: [(She, PRP), (enjoys, VBZ), (playing, VBG), (soccer, NN), (on, IN), (weekends, NNS), (., .)] POSтеги необходимы для понимания структуры предложения и для задач, связанных с синтаксическим анализом, таких как распознавание именованных сущностей (NER) и машинный перевод. Распознавание именованных сущностей (NER) — это задача обработки естественного языка, используемая для идентификации и классификации именованных сущностей в тексте, таких как имена людей, названия организаций, места и даты. Этот метод необходим для понимания и извлечения полезной информации из текста. В данном случае NER помогает извлечь географические данные, такие как достопримечательность и город. Именованные сущности: (S WePRP shallMD visitVB theDT (ORGANIZATION EiffelNNP TowerNNP) onIN ourPRP vacationNN toTO (GPE ParisNNP) ..) Затем этот результат можно использовать в различных задачах, таких как реферирование статей, извлечение информации для графов знаний и многое другое. В этом руководстве мы рассмотрели основные концепции обработки естественного языка с использованием NLTK — от базовой предобработки текста до более сложных методов, таких как лемматизация, POSтеги и распознавание именованных сущностей. Итак, куда двигаться дальше? Продолжая изучение NLP, вы можете рассмотреть работу над простыми задачами классификации текста, с использованием таких алгоритмов, как логистическая регрессия, машина опорных векторов и наивный байесовский алгоритм. Также, можно попробовать анализ тональности текста с помощью таких инструментов, как VADER, или обучить свой собственный классификатор. В NLP есть много интересных тем, позволяющих существенно упростить работу с естественным языком, сделав его понятнее для компьютера. Если базовый NLTK — это только старт, курс OTUS «NLP Natural Language Processing» закрывает следующий уровень: классическое NLP, трансформеры и работа с русскоязычными моделями. На практике вы пройдёте весь цикл — от подготовки текстовых данных и NERQAзадач до собственного Telegramбота, опираясь на уже имеющиеся MLскиллы. Пройдите вступительный тест , чтобы узнать, подойдет ли вам программа курса. Если хотите понять формат обучения — записывайтесь на бесплатные демоуроки от преподавателей курса: 10 декабря: Секреты дообучения трансформеров на примере BERT. Записаться 15 декабря: Легкий старт в парсинг сайтов на Python. Записаться
9,921
https://habr.com/ru/articles/973654/
habr.com
В мире вебразработки технологии меняются с молниеносной скоростью. Еще недавно REST казался универсальным ответом на все вопросы, однако сегодня компании ищут более эффективные решения, позволяющие обрабатывать огромные объемы данных и обеспечивать максимальную производительность. Сегодня мы разберём GraphQL — что это за инструмент, как он работает, какие задачи решает, где оказывается удобнее REST и почему многие компании выбирают его для новых проектов. GraphQL — это язык запросов для API и среда выполнения на стороне сервера для обработки этих запросов. GraphQL не следует путать с SQL – он не используется для прямых запросов к таблицам базы данных. GraphQL – это, скорее, формат или структура, которая задает контракт между клиентом и сервером. Его можно рассматривать как спецификацию или новый стандарт API, похожий на REST, но более эффективный и гибкий. GraphQL изначально был разработан как внутренний проект Facebook в 2012 году. Тогда команда разработчиков столкнулась с серьезными ограничениями традиционных REST API при создании мобильного приложения новостной ленты для iOS. Основными проблемами REST стали: Overfetching — когда API возвращает гораздо больше данных, чем действительно нужно клиенту. Например, для отображения списка постов в ленте требовались только заголовки и авторы, но сервер отдавал полное содержимое каждого поста. Underfetching — ситуация, когда одного запроса недостаточно для получения всех необходимых данных, что приводило к каскаду дополнительных запросов. Особенно критичными эти проблемы становились в условиях мобильных соединений с ограниченной пропускной способностью и длительными задержками при передаче данных. Множественные endpointы REST API требовали многочисленных HTTPзапросов, что делало приложения медлительными и неэффективными. В 2015 году GraphQL стал opensource проектом, а позже перешел под управление Linux Foundation. Основная цель GraphQL — предоставить клиентам возможность запрашивать только те данные, которые им действительно нужны, и ничего лишнего. В отличие от REST GraphQL обычно использует одну точку входа (endpoint обычно graphql). Клиент отправляет на этот эндпоинт запрос, в котором точно описывает структуру и поля необходимых данных. GraphQL функционирует по принципу «запрос — ответ» между клиентом и сервером: На сервере создаётся схема, описывающая все доступные типы данных, поля и операции, которые можно выполнить через API. Клиент формирует запрос, точно указывая необходимые данные. Клиент отправляет запрос на сервер через HTTPметод POST. Сервер анализирует запрос, проверяет его соответствие схеме и выполняет нужные операции для получения данных. Сервер отправляет клиенту ответ, содержащий только запрашиваемую информацию. Клиент получает данные и использует их для обновления интерфейса или других операций. Основой любого GraphQL API является схема (Schema) . Схема — это строго типизированное описание всех данных, которые могут быть запрошены через API. Она служит формальным контрактом между клиентом и сервером. Схема определяет, какие типы объектов существуют, какие поля они содержат и как эти объекты связаны друг с другом. Эта строгая типизация является одним из главных преимуществ GraphQL, поскольку она исключает множество ошибок и позволяет использовать мощные инструменты для разработки и анализа кода. 1. Скалярные типы представляют примитивные значения: String, Int, Float, Boolean и ID. 2. Объектные типы описывают сложные структуры с набором полей. Например, тип User может содержать поля name, email и posts. 3. Типы списков позволяют работать с массивами данных — [Post] означает список постов. 4. Nullable и Nonnullable типы определяют, может ли поле быть пустым. Восклицательный знак ! указывает на обязательность поля. Схема написана в SDL (Schema Definition Language) . На её основе сервер проверяет корректность запросов и выбирает нужные резолверы . В Schema задаются три специальных корневых типа, которые определяют точки входа в API: Query (для запросов на чтение данных), Mutation (для операций изменения данных) и Subscription (для подписки на обновления в реальном времени). Schema в GraphQL — это обязательный рабочий контракт API, а Swagger в REST — это внешняя документация, которая только описывает эндпоинты, но не управляет их работой. Наличие схемы позволяет автоматически генерировать документацию и предоставляет клиентам возможность интроспекции — запроса информации о самой схеме. Резолвер GraphQL — это ключевой компонент сервера GraphQL, который определяет, как извлечь или вычислить данные, запрашиваемые клиентом в запросе GraphQL. Когда клиент отправляет запрос, каждое поле в запросе сопоставляется с резолвером, который содержит логику для извлечения или вычисления данных для этого поля. Корневые резолверы : Обрабатывают поля верхнего уровня в схеме, такие как Query, Mutation и Subscription. Резолверы полей : Обрабатывают отдельные поля в типе, часто для вложенных запросов. Если для поля не предоставлен конкретный резолвер, GraphQL использует резолвер по умолчанию, который возвращает значение из родительского объекта с совпадающим именем поля. Процесс обработки запроса выглядит следующим образом: сначала сервер парсит и валидирует запрос согласно схеме, затем выполняет резолверы для каждого поля, собирает результаты и формирует ответ в точном соответствии со структурой запроса. Взаимодействие с GraphQL API происходит через отправку запросов, которые соответствуют определенной в схеме структуре. Существует три основных типа операций, которые клиент может выполнить. Каждый из них предназначен для решения своей задачи и является точкой входа, определенной в схеме. Эти операции обеспечивают полный цикл работы с данными: чтение, изменение и получение обновлений в реальном времени. Это основной способ получения данных из GraphQL API. Запрос имеет ту же структуру, что и JSONобъект, который клиент ожидает получить в ответ. Клиент указывает, какой объект он хочет получить и какие поля этого объекта ему нужны. Сервер обработает запрос и вернет JSONответ, точно соответствующий запрошенной структуре. Для построения запросов GraphQL используются шесть основных компонентов: поля (fields), аргументы (arguments), фрагменты (fragments), псевдонимы (aliases), переменные (variables) и директивы (directives). Если запросы используются для чтения данных, то мутации — для их изменения (создания, обновления, удаления). Синтаксически мутации похожи на запросы, но они должны начинаться с ключевого слова mutation. Как и запросы, мутации также могут возвращать данные — например, состояние измененного объекта. Это механизм для работы с данными в реальном времени. Вместо того чтобы периодически опрашивать сервер на наличие обновлений, клиент может оформить подписку. Когда на сервере произойдет определенное событие (например, будет создана новая запись), сервер отправит обновленные данные клиенту по долгоживущему соединению, обычно через WebSockets. Эти три операции делают GraphQL мощным и гибким инструментом для создания современных интерактивных приложений. Гибкость и точность запросов. Клиенты получают именно те данные, которые им нужны, без избыточной информации. Это особенно критично для мобильных приложений, где каждый килобайт трафика влияет на производительность и расход батареи. Типизация и автоматическая валидация позволяет клиентам легко понять, какие данные и типы доступны в API, и точно формулировать запросы. Экономия сетевого трафика. Исследования показывают, что GraphQL может сократить объем передаваемых данных на 3080% по сравнению с REST. GitHub, например, сообщил о снижении количества запросов на 80% для некоторых страниц после его внедрения. Самодокументируемость (Selfdocumentation). Схема служит живой документацией API. Инструменты разработки автоматически генерируют описание доступных типов, полей и операций, что существенно упрощает работу команды. Быстрое развитие без версионирования. Добавление новых полей в схему не нарушает работу существующих клиентов. Это позволяет командам быстро итерировать и развивать API без создания новых версий или breaking changes. Удобство для frontendразработчиков. GraphQL позволяет frontendкоманде работать независимо от backendа, используя mockданные на основе схемы. Современные фронтендфреймворки (React, Vue, Angular) часто требуют сложных и вложенных данных. GraphQL позволяет получать все необходимые данные для компонента в одном запросе. Если бэкенд состоит из множества микросервисов, GraphQL может выступать в роли единого шлюза (gateway). Он агрегирует данные из разных источников и предоставляет клиенту единый и консистентный API. Отсутствие встроенного кэширования. В отличие от REST, который эффективно использует HTTPкэши, GraphQL требует разработки собственных механизмов кэширования. Каждый запрос уникален по структуре, что делает невозможным применение стандартных HTTPзаголовков для кэширования. Это может существенно увеличить нагрузку на сервер и усложнить архитектуру. Проблемы производительности при глубоких запросах. GraphQL позволяет создавать сложные вложенные запросы, которые могут привести к экспоненциальному росту нагрузки на сервер. Запрос типа users posts comments author posts может вызвать тысячи обращений к базе данных. Необходимо внедрять лимиты глубины запросов и механизмы защиты от злоупотреблений. Вопросы безопасности и необходимость лимитов. Открытая природа делает API уязвимым для DoSатак через сложные запросы. Требуется тщательная настройка rate limitingа, анализа сложности запросов и мониторинга производительности. Переусложнение для простых проектов. Для небольших приложений с простой структурой данных накладные расходы на настройку схемы, резолверов и инструментария могут оказаться неоправданными. В таких случаях традиционный REST может быть более прагматичным решением. Сложность отладки и мониторинга. Единый endpoint затрудняет анализ производительности и выявление проблемных запросов. Стандартные инструменты мониторинга HTTPтрафика требуют адаптации для работы с GraphQL. Крутая кривая обучения. Команде требуется время для освоения концепций схем, резолверов и специфических паттернов. Это может замедлить начальные этапы разработки, особенно в командах без предыдущего опыта работы с GraphQL. Работа с файлами, например, загрузка или выгрузка больших файлов, в GraphQL не так проста, как в REST API, и требует дополнительных обходных путей или библиотек. Несмотря на быстрое развитие экосистемы, GraphQL все еще остается относительно новой технологией по сравнению с REST, и соответствующие инструментальные средства и библиотеки не всегда доступны или не так развиты, как для REST API. Выбор между REST и GraphQL не является вопросом "что лучше", а скорее "что лучше подходит для конкретного проекта и его задач". Обе технологии имеют свои сильные стороны и оптимальные сценарии использования. Простота и стандартизация — ваш приоритет: Проект несложный, с относительно простой и стабильной структурой данных. Вам нужна быстрая разработка без глубокого погружения в новые концепции. Команда уже хорошо знакома с REST и стандартными HTTPметодами. Эффективное кэширование является критичным: Ваши данные часто запрашиваются повторно, и вы хотите использовать встроенное HTTPкэширование для уменьшения нагрузки на сервер. Вам нужен контроль доступа на уровне эндпоинтов: Проще управлять разрешениями на уровне URLадресов. Работа с файлами является важной частью API: Загрузка и выгрузка файлов в REST более стандартизирована и прямолинейна. Публичное API: Для публичных API, где простота интеграции для широкого круга сторонних разработчиков важнее тонкой настройки выборки данных. Вы не хотите столкнуться с проблемами глубоких запросов и их оптимизации. Большинство существующих вебсервисов и публичных API (Twitter, GitHub v3). Простые CRUDоперации, где клиент обычно нуждается во всех полях ресурса. Микросервисы, где каждый сервис имеет четко определенные границы и небольшое количество связанных ресурсов. Гибкость выборки данных — ваш главный приоритет: Клиентские приложения (особенно мобильные и SPA), которым нужно получать очень специфичные наборы данных, чтобы минимизировать трафик и ускорить загрузку. Вам нужно избежать overfetching и underfetching. Фронтенд и бэкендкоманды должны быть максимально независимыми: Фронтендразработчики могут запрашивать данные, не дожидаясь изменений на бэкенде или создания новых эндпоинтов. API быстро развивается, и вы хотите избежать проблем с версионированием: Часто добавляются новые поля, и вы не хотите ломать старые клиенты или поддерживать несколько версий API. Необходимо агрегировать данные из множества источников: Ваш бэкенд состоит из микросервисов, и GraphQL может служить единым шлюзом, объединяющим данные из разных сервисов в один запрос для клиента. Требуется строгая типизация и самодокументируемость: Схема GraphQL обеспечивает четкий контракт и автоматически генерируемую документацию, что упрощает разработку и отладку. Вам нужны обновления данных в реальном времени (Subscriptions). Команда готова к освоению новых концепций и решению проблем кэширования и оптимизации запросов. Мобильные приложения, где важна экономия трафика и высокая скорость загрузки. Сложные одностраничные приложения (SPA) с богатым пользовательским интерфейсом. API, объединяющие данные из распределенных систем (например, в электронной коммерции, где нужно показывать информацию о товаре, наличии, отзывах и скидках в одном месте). Как и в случае с REST и SOAP, REST и GraphQL — не конкуренты, а две разные технологии для разных целей. REST отлично подходит для создания стабильных, кэшируемых API с чётко определёнными ресурсами. GraphQL превосходит его в сценариях, где нужна высокая гибкость запросов, минимизация трафика и быстрое развитие клиентских приложений. В некоторых случаях оптимальным решением может быть гибридный подход, где часть API реализована на REST (например, для простых CRUDопераций), а часть — на GraphQL (для сложных агрегированных запросов).
13,934
https://habr.com/ru/companies/garda/articles/972798/
habr.com
На связи Артемий Новожилов, архитектор систем ИБ группы компаний «Гарда» и автор telegramканала DataSecurity. Если раньше «социальная инженерия» казалась чемто из шпионских фильмов, сегодня это обыденная реальность, с которой сталкивается практически каждый от студентов до директоров компаний. Телефонные звонки от «сотрудников ФСБ», фейковые сообщения от коллег, нейросети, подделывающие голос руководителя думаю, уже каждый первый лично знает хотя бы одного пострадавшего от мошенничества. По итогам 2024 года ущерб от киберпреступлений превысил 200 млрд рублей это на 36% больше, чем в 2023 году. При этом раскрываются лишь 23% таких инцидентов, что делает цифровое мошенничество одним из самых безнаказанных видов преступлений. Социальная инженерия это манипулирование восприятием человека. Это не про технологии, а про поведение, где главное оружие доверие, страх, жалость и спешка. И, по отчету Verizon Data Breach Investigations Report 2023, более 74% атак на компании начинается с человеческого фактора: фишинга, социальной инженерии и ошибок сотрудников. Почему это выгодно мошенникам: практически нулевая вероятность наказания; возможность удаленной работы и полной анонимности; низкий порог входа – работа по пайплайнам; упрощение инструментов OSINT (сбор данных из открытых источников) – сейчас люди сами о себе все рассказывают; высокая «маржинальность» – пайплайн поведения мошенника может сгенерировать нейросеть с учетом множества вводных, что повышает качество атаки, и уменьшает время на подготовку. Телефонные мошенники также используют социальную инженерию во всех своих схемах. Главная цель злоумышленников – получение денег или доступов к ним любым способом. В основе социальной инженерии лежит манипуляция, а значит, обращение к эмоциям жертвы. Понимание механизмов восприятия, когнитивных искажений, инстинктов и эмоций позволяет преступникам эффективно манипулировать жертвами. Чаще всего мошенники стараются вызвать страх (через запугивание и жесткое ограничение времени), сочувствие, чувство жалости и желание помочь, и даже любопытство. Опасность в том, что эти атаки эксплуатируют базовые особенности психики, которые невозможно отключить знаниями и логикой. Поэтому даже трезвомыслящие люди, хорошо знакомые с информационной безопасностью, рискуют попасться на уловки мошенников. Рассмотрим популярные кейсы в связке с психологическими принципами, на которых злоумышленники строят свои атаки. Разберем, как работают современные схемы обмана и что помогает не попасться, ведь «Если ты знаешь врага и знаешь себя, тебе не нужно волноваться за исход сотни сражений» (Сунь Цзы, Искусство войны). Схема: Жертве звонит сотрудник ФСБ, который утверждает, что со счета был зафиксирован перевод денежных средств противоборствующей в СВО стороне, поэтому в скором времени счет будет заблокирован, а человека вызовут на допрос. Мошенники утверждают, что для сохранения средств их необходимо перевести на безопасный счет как можно скорее, угрожают, просят никому не говорить о ситуации и не прерывать звонок. Причем иногда звонку предшествует реальное зачисление на счет жертвы небольшой суммы «по ошибке» с просьбой вернуть средства. Именно операция по возврату и становится тем самым переводом, который потом применяют для запугивания. Здесь мошенники в первую очередь пользуются принципом авторитета: мы склонны подчиняться фигурам, обладающим властью, статусом или экспертностью. Даже голос, напоминающий знакомый, снижает уровень критичности. Поддельное удостоверение, служебный стиль речи или просто уверенное и даже наглое поведение – все это формирует ложное доверие. Вдобавок, мошенники стараются нагнетать обстановку и создают чувство срочности: под давлением времени человек действует на автомате, не успевая критически оценить ситуацию. Это хорошо изученный механизм в психологии – при мобилизации «системы 1» (быстрого мышления) человек руководствуется эмоциями, а не логикой. Еще один психологический инструмент: чувство страха. Оно активирует инстинктивную реакцию «бей или беги». В этот момент человек готов выполнять любые инструкции, лишь бы избежать угрозы. Особенно эффективно, если угрозу «подтверждают» документами, звонками, реальными переводами или ссылками. Поддельный звонок от банка с использованием подмены номера. Жертве сообщают о «подозрительной активности по вашим счетам». Звонки «из военкомата»: угроза вручения повестки с предложением «урегулировать вопрос» за вознаграждение. Звонки от родных в беде: якобы близкий человек звонит, и рассказывает о произошедшей аварии или драке, и что его арестуют, если немедленно не передать нужную сумму. Звонки из поликлиники , особенно если накануне жертва реально посещала врача. Сообщают о «плохих анализах», предлагают срочно заплатить за экстренное обследованиеоперацию в хорошем месте у проверенных врачей. Опасно, что знают все данные человека: ФИО, иногда номер полиса ОМС. Звонок от сотрудника провайдера: мошенник говорит о том, что в ближайшее время истекает срок договора и номер телефона будет заблокирован. Для удобства можно продлить договор удаленно, нужно лишь назвать цифры из смс. Разумеется, пришедший код не имеет ничего общего с телекомоператором, и подтверждает доступ на Госуслуги. Мошенники подделали голос сотрудника МВД, используя публичные видеозаписи и аудиофрагменты с YouTube. Жертва, уверенная в подлинности звонка, перевела более 2,5 млн рублей. Также в последнее время участились случаи мошеннических рассылок от имени Федеральной службы безопасности РФ. Такие письма приходят сотрудникам российских компаний на личную или корпоративную почту и содержат информацию о якобы проводимой проверке или расследовании в рамках уголовного дела. Внешне такие письма могут выглядеть убедительно, например: Во вложениях могут находиться вредоносные файлы, в том числе содержащие бэкдоры – скрытые программы, которые позволяют злоумышленнику получить удаленный доступ к компьютеру без ведома пользователя. Важно: госорганы направляют письма только на официальную почту компании и оформляют запросы в установленном порядке. Еще один вариант с уловкой, повышающей достоверность слов мошенников: звонит «майор ФСБ». Говорит, что необходимо перевести деньги на безопасный счет. При этом уверяет, что это он, точно товарищ майор. В качестве гарантии в Telegram высылает самоудаляющимся письмом фотографию своего удостоверения с фамилией. Называет госогран, в котором работает и адрес. Жертва, заподозрив, что чтото не так, кладет трубку и начинает гуглить это место и эту фамилию. Находит сайт данного госоргана (он оказался одним из первых в поиске), а там фотографию и ФИО конкретного сотрудника. После этого жертве перезванивает товарищ майор и отмечает, что не следовало искать информацию о нем в интернете, ведь они договорились о поддержании конфиденциальности. Жертва в шоке и действительно верит, что звонят из ФСБ. На самом деле злоумышленники подделали сайт одного из управлений и прикрутили к нему счетчик посещений. Безопасный счет: нигде, ни в каком банке не существует такого понятия как «безопасный счет». Если о нем зашла речь – это 100% мошенники. Сотрудник ФСБ: настоящие сотрудники ФСБ никогда не решают финансовые вопросы по телефону, тем более – с гражданскими лицами. А письма отправляют только на официальную почту компании и оформляют запросы в установленном порядк. «Как можно быстрее»: создание ощущения цейтнота отключает критическое мышление. «Не кладите трубку» , «никому об этом не говорите, даже родственникам»: это попытки удержать внимание жертвы, не дать опомниться и оградить от тех людей, которые могут критически взглянуть на ситуацию. Схемы: Знакомый, друг или коллега в мессенджере, соцсети или по емейлу: просит деньги в долг; помочь вывести деньги с какогото сервиса, пополнить счет и заплатить за номер телефона. Часто описываются сложные и эмоционально цепляющие ситуации: потерял кошелек в командировке, близкий родственник в больнице и срочно нужны деньги на операцию и тому подобное; присылает ссылку на «год бесплатного Telegram Premium», просит оплатить за него подписку или доступ к какомунибудь сервису; присылает ссылку на поддельные сборы на благотворительность. Мошенник не угрожает и не давит – он «просит», «нуждается», вызывает жалость. И часто от имени близкого человека. В таких ситуациях происходит эмоциональный захват: человек сочувствует, боится упустить шанс помочь. Преступники эксплуатируют дискомфорт жертвы от мысли, что та может выглядеть бездушной, жадной, нечуткой. Формируется ощущение, что если сейчас же не помочь, то пострадает ктото беззащитный. Также срабатывает нежелание показаться подозрительным: люди боятся «перебдеть», переспрашивать и проверять. Для этого подобные сообщения часто приходят в позднее время, когда неудобно проверять, и человек скорее помогает, чем разбирается. аккаунт коллеги был взломан через Telegram Web, далее пошла массовая рассылка ссылок на «голосование за ребенка». В итоге только в одной организации было заражено более 15 устройств; в Екатеринбурге в 2024 году сотрудник ITкомпании перевел 15 тыс. рублей после просьбы «коллеги» в Telegram. Оказалось, что аккаунт был взломан. Необычное поведение: просьба о деньгах от человека, который никогда раньше такого не просил. Стиль общения не совпадает с привычным (нет приветствия, резкая формулировка, без смайлов или, наоборот, слишком эмоционально). Отсутствие возможности перезвонить или связаться иначе: «Я не могу сейчас говорить», «Телефон разряжен», «Не могу говорить голосом». Все это попытка ограничить возможности для проверки. Срочность и эмоциональное давление: «Очень срочно», «Только ты можешь помочь», «Умоляю», «Без тебя никак». Создается стресс и давление, чтобы человек не задумался и сразу действовал. Просьба перевести деньги без подтверждения личности: указание только номера карты или телефона, отсутствие деталей, которые знает только настоящий человек (фамилия, должность, внутренняя информация и т.п.). Использование чувствительных тем: болезни, дети, смерть, несчастный случай, бедствия, арест, командировка, потеря документов. Это вызывает автоматическое сочувствие и снижает критичность восприятия. Невнятная или подозрительная ссылка: ведет не на официальный ресурс (например, не на голосование, а на Googleдиск или подозрительный домен), не совпадает с контекстом (ссылка на .apkфайл вместо голосования). Противоречие реальности: коллега просит помочь, когда он рядом в офисе; родственник «пишет из поездки», хотя вы точно знаете, что он дома Отказ отвечать на уточняющие вопросы: вы просите назвать, как вас зовут или где познакомились в ответ игнорирование или уход от ответа. Сообщение пришло не в том канале: друг обычно пишет в Telegram, а тут приходит сообщение в WhatsApp или Instagram. Если сработал хотя бы один флаг, нужно проверить личность человека, который обратился за помощью. Можно уточнить известную только вам двоим информацию или связаться через другой канал связи. Этот тип атак один из самых коварных, потому что не вызывает тревоги. Наоборот: жертва чувствует комфорт, узнавание и уверенность, что разговаривает со «своим». И именно это делает технику особенно эффективной. Схемы: Коллега или руководитель просит срочно перевести деньги. Часто используют Telegram, голосовые сообщения и даже deepfake . Контекст всегда один спешка, срочность, авторитет. используют имя, аватарку, стиль общения реального человека коллеги, начальника, родственника. Типовая фраза: «Привет, это я. Слушай, нужна срочная помощь ты на месте?». Возникает автоматическое доверие, так как мы узнаем контакт; создают деловой или внутренний контекст: мошенник говорит о «внутренних процессах», чтобы казаться частью команды. Используются реальные имена руководителей, названия отделов, внутренние шаблоны и аббревиатуры; ссылаются на «руководителя», «высшее руководство», «службу безопасности». И жертва подчиняется, не желая выглядеть препятствием. Типовая фраза: «Генеральный попросил, чтобы ты сделал это в первую очередь. Он в курсе»; используют корпоративные рутины: просьбы оформить платеж, согласовать документ, открыть файл или передать код. Жертва воспринимает это как часть ежедневной рутины. Типовая фраза: «Скинь, пожалуйста, отчет за Q1 у меня доступа к SharePoint нет». Часто делают это вечером, в пятницу или под конец рабочего дня, когда внимание рассеивается; апеллируют к командному духу, срочности и корпоративной лояльности , что сотрудник не хочет подвести коллегу или руководителя. Типовая фраза: «От тебя все зависит, если сейчас не отправим сорвется сделка». В Гонконге бухгалтер компании Arup перевел мошенникам 25 млн после поддельной видеоконференции с «руководством». По данным South China Morning Post, все началось с фишингового письма от имени британского CFO. Сотрудник финансового отдела сомневался в подлинности, но окончательно убедился после видеозвонка, в котором участвовали дипфейковые образы «начальства», созданные с помощью ИИ. Обращение из незнакомого аккаунта с именем знакомого (особенно без истории переписки). Просьбы, которые раньше человек никогда не озвучивал. Запросы по нестандартным каналам (Telegram вместо корпоративной почты и т.д.). Уход от ответа на контрольные вопросы («А о чем мы говорили на совещании вчера?»). Повышенный эмоциональный фон («Очень нужно!», «Ты выручишь!»). Слишком хорошее знание внутренних процессов от незнакомого человека. Схемы: В Telegram (возможно, даже от реального контакта, от знакомого) приходит сообщение «Это ты на фото?» с вложением. Во вложении файл формата .apk, который заражает устройства под управлением Android. Еще одна популярная схема: подписка на Telegram Premium якобы в подарок. нарушение личных границ зацепка на эго . Схемы с сообщениями «Это ты на фото?», «Ты видел, что о тебе пишут на этом сайте?» или «Тебя упомянули в публикации». Активируется рефлекс самозащиты или любопытство хочется проверить, что происходит; игра на любви к халяве: бесплатное, срочное, эксклюзивное. Сообщения вида «Скачай Telegram Premium бесплатно», «Ограниченная акция от Steam», «Осталось 2 подарка», «Только для тебя», «Успей до конца дня». Здесь срабатывает реакция жадности FOMO (fear of missing out) страх упустить выгоду; имитация корпоративной или геймерской активности. «Ты приглашен в бетатест новой версии Valorant», «Подарок от Discord», «Новая функция доступна только тебе», «Тестируют на ограниченном числе участников». Активируется желание «попасть в закрытый клуб» и поучаствовать в чемто, что дает статус или ресурсы; поддельные «документы», «фото», «видео». Помимо упомянутой в начале истории с «это ты на фото?», могут использовать фразы из контекста работы: «вот документы, которые ты просил», «посмотри предложение от партнеров». Особенно опасны вложения в формате .apk, .exe, .docm, .pdf – они часто запускают вредоносное ПО или открывают доступ к данным на телефонекомпьютере; мнимая случайностьошибка : «По ошибке отправил тебе подарок». В голове срабатывает логика «раз уж отправили – посмотрю, вдруг правда и чтото интересное». Типовая фраза: «Ой, не тебе, но раз уж пришло – можешь оставить себе»; з аманчивые обещания без контекста : «Ты выиграл!», «Поздравляем, вы в числе 100 счастливчиков!». Включается автоматическое мышление, жертва радуется «подарку», не проверяя источник. Типовая фраза: «Поздравляем! Ваш номер выиграл в акции магазина DNS». Часто оформляется в виде яркой графики с логотипами реальных брендов. Этот тип атак нацелен на базовые импульсы: получить чтото интересное, бесплатное или «секретное». Люди кликают не потому, что доверяют, а потому что не могут не посмотреть. Более 60% пользователей, по данным «Лаборатории Касперского», переходят по фишинговым ссылкам, если сообщение вызывает личный интерес или содержит эмоциональный триггер. Кейс: В 2024 году мошенники на «Авито» выманивали деньги через поддельные сайты доставки. Потери одной из пострадавших 82 тыс. рублей. Сообщение с фразой вроде «Это ты?» или «Смотри, что я нашел», даже от людей из списка контактов. Ссылки, ведущие не на официальные ресурсы (или замаскированные). Вложения в странных форматах .apk, .zip, .scr, .bat, .docm. Награды или предложения без участия (вы «выиграли», хотя не участвовали). Сообщение пришло внезапно, без контекста, от коллеги в нерабочее время, от человека с которым давно не общались или общение было совсем в другом тоне. Домен сайта похож на известный, но с ошибкой ( telegrempremium.ru и т. п.). Подарокподпискаскинподарочная карта без причины и без просьбы. пользователь получает сообщение (например, через Discord, Telegram или внутриигровой чат) с предложением: «Бесплатные скины в CS2», «Промокод на 500 рублей в Roblox», «Закрытая раздача от Discord». Переход по ссылке ведет на фишинговый сайт, где предлагается ввести логинпароль или данные банковской карты; мошенник присылает приглашение на «закрытый турнир» или «бетатест новой игры» с установкой .exe.apkфайла. На деле вредоносный файл; мошенники создают фейковый сервис пополнения валюты: жертва вводит платежные данные, после чего происходит списание средств или передается доступ к аккаунту; злоумышленники входят в доверие и общаются с ребенком или подростком, обещают бонусы в игре (скины, валюту) за что просят фото карты, вход в личный кабинет родителей, доступ к телефону когото из взрослых. игра на желании получить редкий бонус или преимущество: сюда относятся фразы типа: «Скин только сегодня», «Участие в бетатесте новой карты», «Подарок от Twitch», «Промо от Steam». Активируется жадность и стремление не упустить шанс особенно у подростков; иллюзия причастности к сообществу: «Ты выбран как активный игрок», «Эта награда только для тех, кто играет больше 100 часов». Включается чувство элитности и доверия; маскировка под официальные игровые сервисы: фальшивые сайты с логотипами популярных игр и платформ: Steam, Epic Games, Roblox, Discord, PlayStation. Жертва думает, что взаимодействует с реальным брендом; социальная инженерия через доверие ребенка: мошенник устанавливает контакт с несовершеннолетним, предлагает «игровые деньги», а взамен просит провести платеж, сфотографировать банковскую карту или сообщить СМСкод. Дети могут не распознать угрозу; автоматизация атак: мошенники создают массово фейковые аккаунты в Discord, Steam, Telegram и через них рассылают фишинг, приглашают в турниры, подделывают розыгрыши; заражение устройства через вредонос: файл с «модом» или «лаунчером» на самом деле устанавливает троян, перехватывающий учетные данные и доступ к банковским приложениям. Кейс: в Чебоксарах в 2024 году девятилетний ребенок получил сообщение от мошенника, представившегося как админ Roblox. Тот пообещал начислить игровую валюту, если ребенок выполнит несколько «заданий»: сфотографировать карту родителей, оформить микрокредит и перевести деньги. Ущерб 1,3 млн рублей. Обещание бонусов, скинов, валюты без участия в розыгрыше или без контекста. Ссылки ведут на сайты с доменами вроде robluxx.com , steamgiveaway.ru , cs2promo.net похожие, но фальшивые. Установка .apk или .exeфайла из неизвестного источника (особенно через Discord, Telegram, форумы). Просьбы ввести данные карты, логинапароля от Steam, Discord, PlayStation Network на неофициальных ресурсах. Общение с незнакомцами в чате с предложением «легкого заработка» или «подключения к турниру». Моментальное добавление в друзья с просьбой выполнить какоето действие без объяснений. «Администратор игры» просит предоставить доступ к телефону или ввести одноразовый код всегда мошенник. Фишинг на корпоративную почту. Например, получение в пятницу вечером письма "Бухгалтерский отчет 2025_СРОЧНО.pdf". Контекст, срочность, усыпление бдительности все по классике. ИИ уже способен подготовить такие письма лучше любого джуниорконтентмаркетолога. Рекомендация: внедрение политики Zero Trust, постоянное обучение сотрудников, фишингтесты и контроль доступа обязательные меры в стратегии информационной безопасности любой компании. Современная социальная инженерия все чаще использует искусственный интеллект, генеративные нейросети и автоматизацию. Это следующий этап эволюции мошенничества, когда человек сталкивается не просто с «обманом», а с технологически убедительной иллюзией. генерация поддельных писем и сообщений С помощью LLM (large language models) мошенники создают персонализированные тексты от фишинга до якобы деловой переписки от имени коллег или контрагентов. Тексты содержат профессиональную лексику, корректную пунктуацию, реальный контекст. дипфейки и поддельные голоса Используются голосовые дипфейки и видео с подменой лиц (deepfake). Жертве звонит или присылает сообщение человек, которого она хорошо знает с реальным голосом, а сейчас уже – и с поддельным видеоизображением. Особенно опасно в корпоративной среде: подмена CEO, CFO, директора по безопасности. видеозвонки с фейковым начальством Тут подходит вышеописанный пример с гонконгской компанией. Мошенники сгенерировали голоса и внешность топменеджмента компании все выглядело как обычный звонок по Zoom. фальшивые сайты, имитирующие госорганы и бренды Поддельные страницы, которые в точности повторяют дизайн реального сайта вплоть до SSLсертификатов, URL с похожими доменами . Используются в рассылках, фейковых службах поддержки, «проверке безопасности» и «блокировке аккаунта». мошеннические боты и LLMагенты Злоумышленники создают псевдочатботов, которые «от лица поддержки» ведут диалог с жертвой. Они могут уточнять логин, сбрасывать ссылки на «восстановление доступа», задавать уточняющие вопросы и все это на хорошем русском или английском языке. Если информация выглядит технологически «на уровне» (видео, сложный сайт, сертификат), наш мозг автоматически считает ее достоверной. Дипфейк с «лицом знакомого» или подделка сайта, полностью копирующего структуру Госуслуг, вызывает ощущение «это точно не фейк». И, наконец, когда много визуальных и звуковых стимулов совпадают с ожидаемым паттерном (например, совещание в Zoom), человек не успевает критически все перепроверить. Неожиданная видеосвязь с руководством по незнакомой ссылке. Просьбы в мессенджерах, голосовых сообщениях или видеозвонках без подтверждения по корпоративному каналу связи. Сайт визуально «настоящий», но с подозрительным URL (например, gosuslugi.supportmail.com ). Необычные формулировки от лица коллег, слишком выверенный стиль или наоборот нетипичный для конкретного человека. Новый домен без истории или недавно зарегистрированный (можно проверить через сервис WHOIS). Любое «срочное» действие по восстановлению доступа, переводу денег или «подтверждению личности». Любая просьба перевести деньги уточняем подругому каналу или лично, задаем проверочные вопросы. Здесь отлично подойдет обсуждение какойто кулуарной темы. При обсуждении никогда не давайте варианты ответа. Например, «Где ты сейчас?», а не «Ты сейчас в Москве?». Сотрудник ФСБналоговойМВДслужбы безопасности банкаоператора связи сброс вызова. Подозрительные сообщения от знакомых перепроверка через другой канал. Не стыдно показаться параноиком стыдно потерять все свои сбережения за 5 минут разговора или стать посредником кибератаки. включите двухфакторную аутентификацию везде, где это возможно; используйте менеджеры паролей. Пароли должны быть сложными и отличаться для всех сервисов и сайтов; проверяйте URLадреса, даже если они кажутся знакомыми визуально; настройте самозапрет на оформление кредитов это усложнит задачу мошенникам, даже если они получат доступ к вашему аккаунту на Госуслугах. Социальная инженерия это не про технологии, а про поведение. Это атака на человека, а не на систему. Но хорошая новость в том, что осознанность и критическое мышление мощная защита. Социальная инженерия работает в обе стороны: если вы понимаете, как вас атакуют, вы научитесь защищаться А с какими схемами сталкивались вы? Расскажите в комментариях чем больше реальных историй, тем лучше мы сможем готовиться к новым угрозам.
23,795
https://habr.com/ru/companies/selectel/articles/973610/
habr.com
Собрать ПК или обновить ноутбук в 2025 году стало куда сложнее, чем пару лет назад. Цены на SSD и оперативную память растут быстрее, чем зарплаты, склады заметно пустеют, а пользователи — от геймеров до программистов — пытаются понять, как уложиться в бюджет, не жертвуя производительностью. В конце года к этой и без того непростой картине добавилась новая деталь: Crucial, один из самых узнаваемых брендов потребительских накопителей и модулей RAM, объявил об уходе с рынка . Его владелец, Micron, сменил приоритеты и сосредоточился на других направлениях, оставив массовый сегмент в куда более сложной позиции. Попробуем разобраться, почему это произошло, чем грозит и есть ли шансы на стабилизацию. Компания долгие годы ассоциировалась с надежными и доступными SSD и RAM. Ее продукция была регулярным выбором тех, кто собирал ПК самостоятельно или искал способ недорого обновить ноутбук. Однако в декабре 2025 года стало известно, что Micron, владелец бренда, закрывает розничное направление Crucial . Поставки сохранятся до февраля 2026 года, после чего бренд фактически исчезнет. Очень неожиданно и странно. Micron входит в тройку крупнейших производителей микросхем памяти, удерживая около пятой части мирового выпуска DRAM. Решение отказаться от бренда, ориентированного на массовый рынок, стало неожиданным поворотом. Компания отметила , что это связано со «стратегическим перераспределением ресурсов», но подробностей не раскрыла. Для индустрии исчезновение Crucial означает уменьшение ассортимента доступных компонентов и усиление давления на сегмент, который и так переживает непростые времена. Чтобы понять логику происходящего, давайте обратим внимание на другой крупный процесс — стремительный рост высокопроизводительных вычислений. ИИпроекты требуют огромного числа ускорителей, а те, в свою очередь, зависят от особых типов памяти. HBM — высокоскоростные многослойные микросхемы — стали стандартом для современных вычислительных платформ вроде NVIDIA H100. Их выпуск не похож на производство привычных DDR5 или NAND: нужны отдельные линии, сложные операции упаковки и иные технологические цепочки. Спрос на такие элементы растет со скоростью, с которой производители просто не успевают справляться. Большие компании заключают крупные контракты на поставку десятков и сотен тысяч чипов для датацентров. Один из примеров — проект Stargate , инфраструктура нового поколения, которую OpenAI строит для обучения будущих моделей. Ему нужны миллионы ускорителей и огромные объемы HBM. Естественно, контракты на поставку всего этого крайне привлекательны для производителей. Для них выгода очевидна: маржа от поставок HBM в несколько раз выше, чем от массовых модулей DDR5 или потребительских SSD. Но такая переориентация мощностей имеет побочный эффект: производство массовых комплектующих постепенно сокращается. Линии, задействованные под HBM, быстро не вернуть к выпуску DDR5 или NAND — перестройка фабрик занимает годы. На этом фоне растущий спрос со стороны датацентров оттесняет потребительский сегмент на вторую роль, и запасы обычной памяти начинают заметно снижаться. По данным аналитиков, в 2025 году складские резервы DDR5 и NAND сократились настолько, что их хватит на нескольких недель вместо прежних трехчетырех месяцев. Это сказывается на ценах: комплект DDR5 на 32 ГБ подорожал почти вдвое. Крупные SSD на десятки терабайт также подорожали на десятки процентов. Снижаем цены на выделенные серверы в реальном времени Успейте арендовать со скидкой до 35%, пока лот не ушел другому. Сложность в том, что рынок памяти контролируют три крупные компании: Samsung, SK Hynix и Micron. На их долю приходится подавляющее большинство выпуска DRAM и NAND. Все трое приняли похожую стратегию — основное внимание уделяется крупным корпоративным заказам и инфраструктуре для высокопроизводительных вычислений. Samsung открыто заявила, что избегает расширения мощностей для массовых компонентов, чтобы не попасть в ловушку перепроизводства. SK Hynix заключила длинные контракты с крупнейшими облачными платформами. Micron, закрывая Crucial, лишь усилил этот общий вектор. Такая концентрация решений в руках нескольких компаний заметно отражается на всей цепочке поставок. Мощностей уже не хватает, чтобы успевать за растущим спросом. Тайваньская Transcend осенью 2025 года прямо заявила, что перестала получать новые партии NAND от Samsung, и производство их SSD фактически застопорилось. Производители ПК тоже ощущают последствия: Framework говорит о задержках с компонентами, а HP всерьез обсуждает уменьшение объема RAM в базовых моделях, чтобы не поднимать цену устройств. Осторожность производителей объясняется и недавним опытом. В 2022–2023 годах рынок пережил обвал цен после избытка готовой продукции. Компании тогда резко ограничили выпуск, чтобы вернуть баланс. Новая волна спроса заставляет их действовать сдержанно, избегая чрезмерного роста мощностей. Аналитики полагают, что нехватка DRAM может сохраниться еще несколько лет, а ситуация с NAND улучшится еще позже. Такая трансформация рынка затрагивает не только производителей железа, но и всю отрасль. Так, OEMкомпании вроде Dell и Lenovo вынуждены бороться за квоты поставок. Увеличение себестоимости напрямую отражается на конечной цене устройств. Небольшие бренды, вроде Framework, откладывают релизы. Даже сегмент одноплатников чувствует последствия: стоимость модулей для Raspberry Pi ощутимо выросла, а сроки доставки продолжают расти. Геймеры тоже ощущают последствия происходящего. Современные игры становятся все требовательнее к объему RAM и скорости накопителей, поэтому апгрейд ПК на фоне подорожавших комплектующих обходится заметно дороже. На консольном рынке ситуация похожая: производство новых моделей, вроде PlayStation 5 Pro, стало затратнее изза роста стоимости микросхем, и это отражается на финальной цене устройства. Параллельно NVIDIA и AMD все больше сил отдают развитию ускорителей для ИИ, и выпуск игровых видеокарт уже не всегда идет теми темпами, которые нужны рынку. Ограничения по железу подталкивают разработчиков к оптимизации программ. Технологии вроде Nanite в Unreal Engine 5 позволяют снижать нагрузку на систему без заметных потерь в качестве. Это может привести к более эффективным играм и приложениям, способным работать на устройстве со скромными ресурсами. В долгосрочной перспективе на рынок могут выйти новые игроки: китайские компании постепенно наращивают выпуск NAND, и их присутствие на внешних рынках способно смягчить ситуацию в будущем. То, что происходит сейчас, — это не просто подскочившие ценники. За всем этим стоят более глубокие перемены. Производители чаще выбирают, куда направить силы: в сторону огромных вычислительных систем или в привычный массовый рынок. Уход Crucial хорошо показывает, как такие решения отражаются на обычных комплектующих, к которым все давно привыкли. И, возможно, этот кризис заставит разработчиков и инженеров внимательнее относиться к тому, как расходуются ресурсы и какие технологии могут помочь выровнять ситуацию. Перспективы пока туманные. На рынке появляются новые технологии вроде MRAM, постепенно усиливаются азиатские производители, и все это со временем может поменять расстановку сил. Но прямо сейчас память стала настоящим дефицитным ресурсом, и за нее приходится конкурировать. Пока крупные игроки продолжают сосредотачиваться на ускорителях для ИИ, массовому сегменту остается лишь ждать, когда ситуация начнет потихоньку приходить в норму.
7,419
https://habr.com/ru/articles/974960/
habr.com
Президент РФ 28 ноября подписал закон о налоговой реформе. Отменяют ли льготы по НДС? Смогут ли резиденты «Сколково» применять ИТльготы? В статье разберу не только изменения в налоговом кодексе, но и сделаю краткий обзор всех доступных налоговых режимов для ИТкомпаний, чтобы вы могли сравнить и посчитать нагрузку на следующий год. Если коротко, то в 2026 году произойдут следующие изменения: повышение страховых взносов для ИТкомпаний с 7,6 % до 15 %; запрет на совмещение льгот ИТкомпаний с льготами резидентов «Сколково»; снижение лимитов на УСН и ПСН. После превышения — НДС 57 % или 22 % с 60 до 20 миллионов в 2026 15 миллионов в 2027 10 миллионов в 2028; отмена пониженных страховых взносов для представителей малого и среднего бизнеса. Теперь льготой смогут пользоваться только те, кто попадет в перечень Правительства РФ. Повышение ставки с 15 % до 30 %; ОСНО — Основная система налогообложения и доступные ИТльготы АУСН — Автоматизированная упрощенная система налогообложения 5.1. А что с льготной ипотекой и отсрочкой от армии? Важное отступление не по теме ОСНО — базовый налоговый режим, на который переходят все компании без специальных налоговых режимов: УСН, ПСН, АУСН. Если компания превышает лимиты последних, то она автоматически переходит на ОСНО. Особых требований для него нет — только налоги, только хардкор. Наиболее масштабное изменение в 2026 году — повышение НДС с 20 % до 22 % , которое скажется абсолютно на всех сферах жизни. К счастью, для ИТкомпаний есть несколько вариантов оптимизировать этот налог. . Самый главный — зарегистрироваться в Реестре российского программного обеспечения . Тогда на доходы от реализации программ НДС вообще не будет начисляться. В первой редакции законопроекта льготу хотели отменить, однако ИТсообщество в лице представителей бизнеса, ассоциаций и юристов смогли отстоять новую схему. Осторожно, сейчас будет много юридического языка — извините, без этого никак. От НДС освобождается любая реализация исключительных прав на программу или базу данных, включенную в Реестр российского ПО (пп. 26 п.2 ст. 149 НК РФ). Под реализацию попадают: договор об отчуждении исключительных прав (ст. 1234 ГК РФ); лицензионный договор о предоставлении права пользования ПО (1235 ГК РФ); договор куплипродажипоставки экземпляров программы для ЭВМ (гл. 30 ГК РФ, 1272, 1280 ГК РФ); договор оказания услуг по предоставлению доступа к ПО (SAAS); иные смешанные договоры и их вариации, по которым предоставляется право пользованияисключительное право на программу в Реестре отечественного ПО. Важно! Льготой можно пользоваться вне зависимости от того, разработали вы программу или нет. Главное — именно регистрация в реестре. Например, если программа реализуется через несколько участников (вендор — дистрибьютор — интегратор), то все участники этой цепочки смогут применять НДС 0 %. Если функционал программы — это поиск клиентов, партнеров, заключение сделок, реклама и продвижение товаров и услуг, то льгота по НДС не применяется. Чтобы зарегистрироваться в реестре, вам нужно учесть несколько пунктов: 1. Исключительные права принадлежат заявителю — российскому лицу. 2. Прямая или косвенная доля участия иностранных лиц в компании составляет менее 50 %. 3. Выплаты иностранным лицам не превышают 30 % от выручки ПО за предыдущий год. 4. В программе не используются запрещенные компоненты под экспортными ограничениями. 5. Технические средства для активации, выпуска, распространения, управления лицензионными ключами, а также средства хранения кода программного обеспечения находятся на территории РФ и контролируются российскими лицами. 6. Техническая и гарантийная поддержка осуществляется российскими лицами. Подробнее о регистрации программы можно посмотреть в наших вебинарах. По налогу на прибыль все осталось без изменений. Напомним, что для компаний на ОСНО он составляет 25 %, но компании с ИТаккредитацией и 70 % доходов от ИТдеятельности могут платить только 5 %. Льготные ставки МСП доступны не всем, а только тем, кто попал в перечень Правительства РФ, остальные будут платить 30 %. Постановление Правительства ещё не принято, ждем новостей; Льготные ставки для ИТкомпаний поднимаются и будут 15 % для большинства сотрудников и немного ниже у тех, кто получает зарплату больше ЕПВБ (248 000 в месяц). Чтобы ваша компания получила льготы по страховым взносам и налогу на прибыль, нужно соблюсти два пункта: — 70 % доходов от ИТдеятельности, который закреплены в п.5 ст. 284 НК РФ или п. 1.15 ст. 427 НК РФ. Подходите под критерии? Готово, вы великолепны и можете получить заслуженные льготы! Чтобы получить льготу по налогу на прибыль и страховым взносам, ваша компания должна быть включена в реестр аккредитованных ИТкомпаний. Что для этого нужно: основной ОКВЭД организации соответствует перечню Минцифры; средняя зарплата в компании не ниже средней по РФ или по региону регистрации; наличие официального сайта компании с информацией об ИТдеятельности; отсутствие судимости у гендиректора или долгов по налогам и сборам; Часто путают два разных набора требований к ИТдоходам: требования Минцифры (Приказ от 11.05.2023) — нужны для получения ИТаккредитации ; требования Налогового кодекса (п. 5 ст. 284 НК РФ и п. 1.15 ст. 427 НК РФ) — нужны для получения налоговых льгот. Минцифры смотрит, подходят ли ваши доходы под критерии для аккредитации. ФНС проверяет другое — имеете ли вы право на налоговые льготы по факту реальной деятельности. Наличие ИТаккредитации само по себе не дает налоговые льготы. В каждом отчетном периоде ФНС может проверить вас и оспорить это право. Кроме того, не все компании, которые могут получить ИТаккредитацию, вправе применять налоговые льготы. Некоторые виды деятельности напрямую противоречат друг другу, и то, что подходит для ИТаккредитации, не подходит для налоговых льгот. продажи прав или предоставления доступа к ПО собственной разработки; оказания услуг по разработке, установке, тестированию, сопровождению, адаптации и модификации ПО; продажи и сопровождения ПАКов, включенных в Реестр отечественного ПО; если с использованием ПО, включенного в Реестр, оказываются некоторые услуги, типа распространения рекламной информации. Надеемся, вы это запомнили. Если нет — Бог Приказ Минцифры в помощь. Либо это будет 16 % на налоговую базу «доходы» (фиксированный налог со всей выручки), либо 515 % на налоговую базу «доходырасходы» ( разница между доходами и расходами). При этом УСН — это региональный налог. Он идет в бюджет вашего региона, а не всей страны. Поэтому каждому региону предоставлено право устанавливать налоговые ставки по своему усмотрению. Также каждый регион вправе вводить льготные налоговые ставки для определенных категорий налогоплательщиков, например, для ИТкомпаний, и устанавливать свои требования для них. Такие приятные льготы действуют, например, в Московской и Ленинградской областях, Удмуртии, Татарстане. До 2026 года каждый регион самостоятельно определял требования и условия для применения пониженных ставок по УСН. Поэтому везде были совершенно разные правила для ИТкомпаний, МТК и т.д. Сейчас правила и условия для пониженных ставок будут устанавливаться Правительством РФ, а регионы смогут только присоединиться к ним или нет. Найти — или не найти — свой регион в 2025 можно здесь . В 2025 году для компаний на УСН действует лимит выручки 60 миллионов рублей. После его превышения нужно платить НДС — либо по пониженным ставкам 57 %, либо по общей ставке 20 %. В 2026 году лимит снизят до 20 миллионов , в 2027 — до 15, а в 2028 — до 10. При достижении лимита на УСН, каждый налогоплательщик вправе выбрать между НДС 22 % или НДС 57 %: 5% — на 20 миллионов выручки в год (в 2027 — 15 миллионов , в 2028 10 миллионов); Кажется, что пониженные ставки — беспроигрышный вариант. Но так ли это самом деле? На практике — нет, не так. Всё сильно зависит от вашей ниши, маржинальности и объема входящего НДС. Формула: НДС к уплате исходящий НДС входящий НДС восстановленный НДС: исходящий НДС — налог, который вы начисляете при продаже товарауслуги; входящий НДС — налог, который вы заплатили при покупке товаровуслуг для своей деятельности. восстановленный НДС — ранее принятый к вычету, но подлежащий возврату в бюджет. При стандартном НДС компания может уменьшать налог к уплате за счёт входящего НДС. Вы продали товар за 244 рубля, из которых 44 рубля — исходящий НДС. На производство потратили 207 рублей, из которых 37 рублей — входящий НДС. Бюджет все равно получает свои 44 рубля (7 вы 37 ваши поставщики), но ваша нагрузка — 7 рублей. При пониженных ставках входящего НДС нет вообще. Это и есть главный минус. Вы продали товар за 210 рублей, где 10 рублей — НДС по пониженной ставке. Расходы те же: 207 рубля из которых 37 рублей входящего НДС. — исходящий НДС 10 рублей, его вы платите всегда; — входящий НДС фактически ложится на себестоимость. 10 рублей (исходящий) 37 рублей (входящий, который нельзя зачесть, но вы его заплатили, покупая товары и услуги) 47 рублей. Таким образом, с классическим НДС вы заплатите в бюджет 7 рублей, а бюджет получит 44 рублей всего. А с льготным НДС вы заплатите 10 рублей, а бюджет получит 47 рублей. Короче, если у вас большая доля расходов с НДС, пониженная ставка может оказаться заметно менее выгодной, чем стандартные 22 %. Тут уже решать вам. Госдума сохранила для компаний на УСН, которые впервые станут плательщиками НДС в 2026 году, возможность один раз отказаться от пониженной ставки НДС в течение первого года, не дожидаясь обязательных трех лет применения режима. Эта поправка делает систему гибче: вы сможете протестировать оба варианта и выбрать тот, который реально снижает вашу налоговую нагрузку. АУСН — добрый братблизнец УСН, для которого остается лимит по доходам в 60 миллионов рублей, НДС 0 % и отсутствие страховых взносов. Именно изза сохранения лимитов все резко вспомнили про этот налоговый режим. Автоматизированной система называется потому, что вам не нужно сдавать налоговую декларацию, а в идеальном мире вообще можно обойтись без бухгалтера. ФНС будет самостоятельно рассчитывать сумму налога на основании данных ККТ (контрольнокассовой техники), уполномоченных банков, личного кабинета налогоплательщика. АУСН введена в экспериментальном режиме и действует до 31 декабря 2027 года. В течение этого срока установлен запрет на внесение любых изменений, и именно поэтому налоговая реформа этот режим не меняет вообще никак. доход до 60 миллионов за предыдущий или текущий год; численность сотрудников до 5 человек (обязательно должны быть резидентами РФ); выплата заработной платы только безналичным расчетом; балансовая стоимость основных средств не превышает 150 миллионов рублей; компания зарегистрирована в регионеучастнике эксперимента. Вам подходит АУСН? Смело подавайте заявление в ФНС до конца года. Патентная система применяется только индивидуальными предпринимателями и предполагает покупку патента на определенные виды деятельности. По сути, ИП уплачивает фиксированную стоимость налога еще до того, как начнет получать доход. Снижение лимитов по доходам: вместо прежних 60 миллионов рублей вводится поэтапное уменьшение — 20 миллионов в 2026 году, 15 миллионов в 2027 и 10 миллионов с 2028 года. Появляется новая опция — заменить действующий патент на новый , если у предпринимателя снижаются «физические показатели», например, численность работников. Сумма налога по старому патенту пересчитывается пропорционально периоду действия. ПСН все еще привлекательна за счет нулевого НДС и фиксированной стоимости патента. Но ужесточение лимитов делает режим удобным лишь для малого бизнеса и начинающих ИП. А стоимость патентов тем временем растет, и неизбежно возникают вопросы — см. картинку выше. Получение статуса участника «Сколково» — процесс скучный. Однако игра попрежнему стоит свеч — как раз изза налоговых преференций. упрощенный порядок оформления приглашений на въезд и разрешений на работу для иностранных специалистов; дополнительное финансирование путем участия в грантах. Нужно пройти экспертизу, где вас оценят по ключевым параметрам: технологическая инновационность — решение должно быть новым и технологичным; конкурентоспособность — наличие преимуществ перед аналогами; потенциал коммерциализации — понятная бизнесмодель и реальный спрос на рынке; команда — достаточный опыт и компетенции для реализации проекта; реализуемость — проект не должен противоречить базовым научным принципам. Самое важное изменение — запрет на совмещение льгот для ИТкомпаний и участников «Сколково» При этом резидентам не обязательно отказываться от статуса ИТаккредитации. Необходимо просто выбрать и применить набор льгот в соответствии с требованиями закона. Если же вы решите применять льготы ИТкомпании, отказаться от статуса участника «Сколково» все же придется, уведомив об этом налоговый орган. Сейчас законодательством закреплено, что для получения льготной ИТипотеки компания должна иметь ИТаккредитацию и пользоваться налоговыми льготами по страховым взносам для ИТкомпаний . смогут ли резиденты «Сколково», которым теперь запрещено совмещать ИТльготы и льготы для резидентов Сколково, брать ИТипотеку для сотрудников? В условиях текущего законодательства – сотрудники участников Сколково брать ИТипотеку не смогут. Однако не всё потеряно. Сейчас приняты поправки в Налоговый кодекс, а правила по ИТипотеке устанавливаются Постановлениями Правительства РФ, в которые ещё могут быть внесены изменения. Это не осталось без общественного внимания: представители отрасли и ассоциаций заявляют о намерениях отстаивать сохранение прав по ИТипотеке для сотрудников резидентов. Пока следим) А вот льгота по отсрочке от армии для сотрудников компанийрезидентов с ИТаккредитацией будет доступна. Реформа затронет не только ИТбизнес. Вот что еще поменяется с 2026 года — собрали несколько важных и интересных вещей: отмена пониженных страховых взносов для представителей малого и среднего бизнеса. Теперь льготой смогут пользоваться только те, кто попадет в перечень Правительства РФ. Повышение ставки с 15 % до 30 %; начисление ежегодной семейной выплаты — возврат части уплаченного НДФЛ для нуждающихся и многодетных семей. Налог пересчитывается по льготной ставке 6 %; льготный расчет пени: 1300 ставки ЦБ за весь период просрочки; смягчение условий получения федерального инвестиционного налогового вычета: вычет можно передать любому участнику внутри группы компаний независимо от направления деятельности; расширение повышающего коэффициента для расчета налоговой базы по имуществу и транспортному налогу. Теперь его будут применять к большему числу имущества и автомобилей; введение налога на прибыль для букмекеров и тотализаторов , плюс дополнительный оборотный налог 5 % от принятых ставок. Итого, реформа2026 существенно изменит правила налоговой игры для компаний. Но даже если нововведения кажутся сложными, для ИТбизнеса еще остаются реальные возможности для оптимизации налогов. О них обязательно отдельно напишу!
14,855
https://habr.com/ru/articles/975456/
habr.com
Привет, Хабр! Вдохновленный статьей про ЧПУ станок 3018 , я наконецто решил обзавестись высокими технологиями и высверливать самодельные печатные платы более технологично. Однако, стружка от стеклотекстолита канцерогенна и мелкодисперсна, при фрезеровке в квартире вопрос фильтрации стоит остро. Платы фрезер вырезает крайне медленно больше часа точно, и бытовые пылесосы страшно так долго использовать, а промышленные избыточны для такой мелкой задачи. Я решил смастерить самодельный пылесос циклонного типа, что у меня получилось читайте в статье. Обычно люди режут деревянную фанеру от которой летит куча стружки. Берется насадкациклон и врезается в большую бочку, выполняющую роль бункера для стружки конструкция получается громоздкой, шаткой и требует отдельного пылесоса. Хотелось чтобы все было в одном корпусе с минимумом проводов и шлангов. Стружки от плат ожидается не так много и бункер может быть в виде 0,5 литровой прозрачной пластиковой банки с полезным объемом около 0,2 литра. Основной корпус будет напечатан на 3D принтере. За основу взяты наработки Dyson из следующих коротких видео: Я переработал это в два циклона один предварительный непосредственно в бункере и один центральный циклон вместо системы циклонов, потом идут два матерчатых фильтра до и после турбины: В качестве турбины взял турбину с алюминиевыми лопастями из ручной воздуходувки Турбина питается от блока питания 7.5В (на другом напряжении не пробовал, боюсь спалить) и управляется ШИМ с частотой 500 Гц. Я сделал простенькую одностороннюю платку для управления и подключения питания: Сигнал включения будет браться от мотора шпинделя, через 3.5мм аудиоштекер он подается на оптрон, который подает питание на таймер 555. Подстроечником устанавливается скважность чтобы турбина не перегружала блок питания по току. В моем случае турбина потребляет около 1.3 А и практически не греется. Непосредственно вблизи турбины я потом припаял выводной электролит для сглаживания пускового тока. Кабельменеджмент внутри модели присутствует. Я напечатал всё PETGпластиком на принтере Creality K1C высотой слоя 0.2 мм без использования поддержек. На всякий случай пропшикал детали изнутри жидким пластиком для улучшения герметичности. Для первого теста взял муку в ожидаемом максимальном объеме стружки: На видео видно, что работает слабовато, хотя и есть завихрения. Фильтрует циклонами прям хорошо, думаю, около 98% точно, если не лучше. Я хотел пристроить HEPAфильтр, но самые распространенные конические уж очень удлиняли бы конструкцию. Так что оставшиеся 2% предлагаю фильтровать синтепонамипоролонами. По сравнению с trueDysonом всасывает так себе, я ожидал большего (хотя тут около 10Вт мощности). Написано, что циклоны создают большое сопротивление воздуху, я это оценил лишь собрав этот пылесосик. С реальным станком через шланг всасывает, но надо шаманить насадку на шланг чтобы была как можно ближе к фрезе, пока я это не проработал. Однако конструкция на мой взгляд получилась вполне эргономичной и крепкой. Взял, тихо открутил банку и струсил в пакет пыль. Провода и шланг в одном месте и быстро отсоединяются. Главное, я отвязался от аккумуляторов и питал всё от обычного адаптера EN1500SII Повышать мощность думаю опасно, т.к. объема воздуха может не хватать для полноценного охлаждения турбины и всё расплавится. Кто хочет повторить действуйте на свой страх и риск.
3,364