итак... прошло почти два месяца, как я уволился с работы. И только сейчас ко мне начало возвращаться либидо. До этого я прокрастинировал. Но из этого цикла меня вывел мой тимлид, написавший как дела (а я попробовал ему в ответе отрефлексировать) и один из выпусков с канала "вы обречены" про открытие бара. В нем был чел, который на вопрос "почему ты продолжаешь" ответил "потому что это мой выбор". Вчера я попробовал пообщаться с гроком на тему TTS в которых были бы учтены разные волновые моменты речи. И он мне начал довольно бодро советовать разные сетки. Все было хорошо до момента, когда я не попробовал выполнить его инструкции. Оказалось что грок обсирался буквально на каждом шаге. Надо бы попробовать с гопотой...
как же я ебал современное айти, пацаны... набрали говно с улиц, посадили за питон и это говно устроило настоящую содомию и зоопарк Как же блять в этом нейродерьмище нехватает стандартизации и ёбки в сраку всех этих говнокодеров... Случаи когда пример из документации, ебать, стали просто обыденностью, ебаной повседневностью, всем норм блять. Дети сук и спидозных бомжей, срал в их сифилитичные глотки
всю ночь ёбся с bark, чтобы под утро распердолить и понять, что это говнина ебаная. suno два года назад кинули гнилозубым крестьянам обглоданную кость в виде свободной модели, в которой контекст генерации залочен на 13 секунд. Новыми красками заиграло название. Bark. Типа "гавкни, пёс, за кинутую кость".
Грок говорит есть какие-то хакнутые модели bark разлоченные, но не сильно больше генерируют потому что они основаны на кастрированной модели, а нормальную модель капиталисты зажопили. Уууу бля коммунистов на них нет, суки охуевшие.
>>1186854 судя по посту не особо он и разбирается впрочем как и все мы. > На каких вообще вычислительных мощностях они работают смотря какая модель. можешь и на смартфоне некоторые запустить.
> Какой нужен кластер для того же грока или суно? никакой наху. обе модели закрытые (есть только древний первый грок). но в целом для подобных моделей это сотни ГБ ВРАМ для юзабельного состояния. Из больших актуальных моделей корп уровня только дипсик и кажись кими или что-то такое есть открытое (все китай лол), ну лама еще. Ранить это самому? Ну хз, больно и дорого. Смотри модели поменьше. Для видео есть wan 2.2 открытый из актуального, без звука, желательно 24 ВРАМ
>>1186883 Дорого, но не фантастически. Вопрос нескольких миллионов рублей если на карточках собирать. А какие пиздюли законодательно можно получить, если твоя сеть может генерить лолипрон или что то такое? Ведь это не ты делаешь, а пользователь.
>>1186898 Ты хочешь хостером АИ стать? Не знаю законодательно, но даже порногигантов как цивит давить начали, впрочем, там все еще тонны лютого дерьма. Если у себя не хранить, а нагенерил и отдал, то наверное проще, не знаю.
Может можешь спросить тут в /д/, уверен борда сталкивалась с подобным.
Мелко средние модели 20-32Б тоже относительно неплохи, кстати. И их можно локально на одной 3090-5090 запускать.
>>1186883 Какие навскидку модели из этого бенчмарка умеют в эмоции? А в русский? Я конечно сам покопаюсь, смотрю там половина помечена устаревшими или не запускающимися.
>>1187112 разве что в гипермыльном качестве чтоб ниху понятно не было в видео корпы ебут. ван 2.2 неплох, но он на порядок хуже соры даже отупевшей так что самому поднимать смысла нету кроме как поразвлекатся
>>1186883 по твоему лидерборду я кстати уже попробовал одну из топа - xtts_v2. Но ты не знаешь как я подошел к задаче, поэтому начал советовать. Моя цель - попробовать разные архитектурно виды сетей. Есть три вида из современных - которые работают со спектрами (разложенные по фурье волны), которые работают с токенами (это барк) и которые генерируют из шума и построены по подобию SD. При этом они должны быть мультиязычными, желательно поддерживать эмоции, иметь высокую частоту дискретизации, желательно до 44.1 кГц, не робовойсить, иметь возможность клонировать голос. Так что твои чарты, в которых сравнивается английский с захардкоженным голосом.... они немного нерелевантны... Но я конечно присмотрюсь к кокоро сетке, спасибо.
>>1186854 могу сказать, что не разбираюсь, лол. Я работал на прошлой работе в ML платформе. У меня нашей команды в управлении были сотни серверов, набитых каждый по 8 топовых бизнес карт (от A100 до H100). Мы предоставляли это всё для команд ML-щиков. И я точно знаю, что нихуя в них не разбираюсь. Но в среднем вкусности начинаются от одного полного 80-гиговых карт сервера (8 штук). При этом сам я имею чуть больше 100 гб врама, но это конечно мало...
В xtts есть какой то русский, но судя по всему оно не умеет в ударения. Кто то зафайнтюнил но получились вообще прошмандовки какие то https://www.youtube.com/watch?v=hPS7dtJn00s
Orpheus выглядит интересным, там есть какие то опции проставлять вдохи-охи. Русского официального нет, а чел какой-то уже полгода дообучает и пока не выложил.
>>1187673 >Просто, сердито и очень быстро. Читает монотонно, без интонаций и выразительности, не расставляет акценты в предложениях, но при этом не отдаёт роботом. Возможно на восприятие влияет ещё и специфика текста (условно художественный). Каких-то аномалий при генерации не заметил, голос копирует прям хорошо. И ОЧЕНЬ быстро. Генерация у меня занимала раз в 10 меньше чем сам отрывок. >Также требуется расстановка ударений в виде + перед ударными буквами. Решал тем-же RuAccent. Но примера сам я не слышал.
>>1187856 да я нашел уже, спасибо. Устанавливаю её сейчас. Место на нвме кончилось блэт.... 600 мегабит/с купил, а нвме побольше не купил... Для слаки 512Гб для корня прям совсем уже не хватает...
вот, пока вкину то что есть. Это xtts_v2 не тюненая на русский (не https://www.youtube.com/watch?v=hPS7dtJn00s) Будем посмотреть, что покажет F5-TTS, у меня хорошее предчувствие.
>>1187924 Да, та же херня... Воткнул в ноут 1Тб, но специально небыстрый, чтоб не грелся. Уже половина на всякое говно исчезла, да еще любовь этих нейронщиков все делать через докеры, питон энвы и конды, хаггинхабы, что оно все повсюду размазывается ровным слоем говна и непонятно как потом вычищать. Уверен что у меня торч и куда по нескольку раз установлена, а модели по нескольку раз выкачаны...
Вертел на ослиных хуях разлагающиеся трупы матерей выблядков-разработчиков, сука не могу файнтюн модель ни в кли хуету засунуть ни кодом на питоне запустить/ Как же заебали сосатели солёных залуп ML-питонисты хардкодить всякое говно блядь
>>1188346 Да я уже и сам нашел. Покажи что у тебя получилось в генерации. У меня какая-то хуйня в начале фразы генерируется. Приложил в видео образец хуеты. Генерирую вот так
f5-tts_infer-cli --model F5TTS_v1_Base -p /home/reg/git_projects/TTS/04_F5-TTS/F5-TTS_RUSSIAN/F5TTS_v1_Base_v2/model_last_inference.safetensors -v /home/reg/git_projects/TTS/04_F5-TTS/F5-TTS_RUSSIAN/F5TTS_v1_Base/vocab.txt --ref_audio clonning_saya.wav --gen_text "Съешь ещё этих мягких французских булок, да выпей чаю" --device cuda --speed 1.2
>>1188349 ну это ж пидорство ёбаное. Неявная логика. За это надо хуем наказывать.
И насколько понимаю, в этой поебени нельзя сид задать. А задание сида автором файнтюна ставится как один из методов решения проблем.
короче... я почему вообще в грок полез. Мне понадобилось запускать эту сетку не в кли обертке, а через питонячий скрипт. Потому что ВНЕЗАПНО оказалось, что эта клишная залупа ограничена 12 секундами, точно так же как и барк. Какая-то эпидемия пидорства в плохом смысле слова. https://huggingface.co/Misha24-10/F5-TTS_RUSSIAN/discussions/6 >Обрати внимание если использовать gradio или CLI приложение то аудио обрезается до 12 секунд, необходимо это учитывать. Грок проиграл жопу илона дав мне 10 нерабочих скриптов. Мда. Говно.
в общем я разобрался. Имелось в виду не то, что кли ограничивает длину генерации, а то что она нарезает длинный текст на куски которые вмещаются в 13 секунд и потом эти обрывки склеивает. Хотя могла бы нарезать на куски по 30 секунд... Я попробовал с ruaccent проставить ударения. Попробовал соблюсти требования, которые описаны вот тут https://huggingface.co/Misha24-10/F5-TTS_RUSSIAN/discussions/9. Пробовал играться с параметрами --nfe_step и --cfg_strength.
Получается все равно хуета. Вот "вылизанный" вариант. Видно что голос повышает тембр до писка, видно зажевывание, растягивание и полное проглатывание слов. Короче... говно сырое. Модель сосёт залупу. Только на бумажке синтетическом сравнении красивое.
эта модель понимает указания ударений через + перед буквой и в этом казалось бы плюс в сравнении с xtts_v2. Тем не менее, ruaccent проставляет ударение не на все слова и модель как голодная до хуя шлюха тянется герпесными губами к этим словам без проставленных ударений, чтобы произнести их неправильно.
>>1188734 мимикрия. Образец - вот этот отрывок. Голос в результате вроде бы и детский и тон вроде похож, но кажется не совсем. Я слышу отличия. У оригинала он немного тягучий, а в мимикрии - резкий, будто только прорезался.
>>1189748 >>1189830 >>1189854 ты её через комфи завел? Я искал простой вариант через скрипт запустить в кли - не нашел. Не люблю все эти градио-мокрописьки. Насколько понимаю, она работает сильно медленнее, чем f5tts. Это и из размера модели понятно. 20 гигабайт.
>>1189920 не уверен, что другой акцентуатор поможет. Кажется, что дело не в нем. Я сталкивался с ситуацией, когда модель ставила ударение в слове не там, где оно было проставлено в тексте. Так что... замена акцентуатора - явно не панацея. Причем это не были прям редкие единичные исключения.
>>1189952 а у тебя flash-attn установлен? Грок говорил что он нужен для этой нейронки. А я не смог его собрать, потому что эта хуйня говорит что у меня слишком новый gcc. Насколько медленно? И какая у тебя карта?
И кстати тоже наткнулся на проблему, что куски образца попадали в выходные чанки. Пока не поборол. Что немного помогло - обрезать референс сэмпл короче 12 сек. Расписать ему текст вручную. И добавить в конце пробелов
>>1189979 мне помогло добавлять тишину в конец файла. 1-2 секунды. Видел этот совет где-то в обсуждениях. Он видимо не понимает, где отрезать и отрезает посередине предложения-образца, если оно сложное. >вебм ахахахахах
>>1190276 защо? >>1190427 >Как ты без флеш антеншена ЛЛМки гонял вообще? на жоре, очевидно же. У меня 4 P40. А жора предоставляет нативный распред. Нет ебли с пиповыми зависимостями, просто скомпилил - и сиди капйфуй. Жора вообще молодец, жму хуй губами, как говорится.
>>1190821 ну так референс-то какой? я вообще не уверен что это нормально явно пиздонский крикливый семпл пихать. может какой поспокойнее найти можно без японских вскриков
>>1190718 а ну да. это для кексламы чы шо. пофиг. поставил убабугу и все есть. в комфи тянуть лень. вот челидзе ускорил вайбвойс, я не проверял мне лень да и и так скорост ьустраивыает. https://github.com/Mozer/ComfyUI-VibeVoice-exl3
Не понял про V100... Пишут они якобы дешевые. Но это 16гб дешевые. Как только ставлю 32гб, вылезают цены 75-150к рублей. А народ пишет почему-то что можно уложиться в две видяхи nvlink+материнка за 70к. Ой, а это что за коммент
Отсутствие поддержки типов BF16 - это ещё половина беды. Главный недостаток этой карты для использования с нейросетями - прекращение поддержки этой видео-карты в SDK CUDA начиная с последней версии 13. То есть со временем поддержка этой видяхи в новых версиях фреймворков для нейросетей по мере их обновления - завершится.
>>1191373 на али за 40 продается 32 гб версия. если брать с таобао через сервисы доставки (я сам не умею), я уверен, выйдет еще дешевле. >начиная с последней версии 13 ну... а что тут скажешь. понятно, что история с этими картами - на год-два. С p40 оно так же было.
А где ты читаешь про >А народ пишет почему-то что можно уложиться в две видяхи nvlink+материнка за 70к. я тоже загляну почитаю
>>1191373 анон же кидал в треде ссылку https://www.goofish.com/item?spm=a21ybx.personal.feeds.9.24476ac2e0606y&id=965113849989&categoryId=125952002 я хуй знает, там у китайцев на локальном рынке вообще рай какой-то нахуй. весь комплект 20к стоит. Минус только в том, что ему нужен полноценный x16. У меня такой только в основном пк. А на майнерской матери только x8. А мать с двумя полноценными x16 будет стоить уже около 40к, да еще + проц сверху. То есть эта плата ограничивает потенциал роста по враму.
>>1191424 вижу. Ну да, он и пишет, что если с китая напрямую брать. А ебля с дровами - только для виндузоидов, которые на этом в игрушки захотят играть. Это просто автор канала решил заморочиться и запустить такой сетап. Вообще оно конечно нахуй не надо никому на бизнес картах играть в игры. Все это для ллм берут и на линуксах гоняют.
>>1190849 чел, я понял, почему у тебя азиатский акцент в генерации. Потому что модель >Language support: Primarily English and Chinese И там именно не японский акцент, а китайский, как его показывают в русской озвучке. Типа когда китаец говорит. Слушай, ну... мне это не подходит... Что же я - буду сидеть слушать как китайская хуйня мне уши ебёт своим произношением...? Это же буквально ching-chong bing-bong. щиее хуа пяуу пяууу беифонг щияяу щиияуу
В общем. То что в вебм - это генерация large моделью с голосом Сайи. очень плохо короче... Я слушаю прочтение стиха и будто одновременно слышу как диктор восхваляет китайскую компартию за увеличенные надои чугуна.
Хммм... но вообще конечно с примером голоса путина речь не имеет такого сильного акцента... Значит надо попробовать другой сеткой сделать русский голос Сайи и скорсить vibevoice.
Я кстати вдохновился тобой и тоже использую RPC, только не с такими безумными карточками, а вполне дешевыми 10gbps. Работает весьма хорошо, загружает весьма шустро по моим меркам
Хммм.... короче взял минуту записи Чонишвили, где он по разному, с выражением читает, в том числе захватывая английскую речь. И вышло прям хорошо, добротно.
>>1191745 о, ты в курсе контекста про карты. Приятно приятно. Да, я должен сказать, что мелланоксы на 25 гигабит были излишни. RDMA там вроде и работает, а вроде и прироста не дает никакого. Дисковая система баттлнечит, зараза. Все IO при распреде работает в однопоток. А к в характеристиках nvme указано 8Гбайт/с при 32 параллельных потоках. В один получается медленно, чуть меньше гигабайта в секунду. Если я ничего не напутал в размерностях. Но вроде не напутал.
>>1191747 У меня, кстати, чуть больше выходит. Почти 9 Гбит/с, т.е. чуть больше 1 Гбайта/с. Это даже быстрее, чем некоторые мои PCI-E, хаха, разве что мб у них latency меньше.
Вообще если есть желание попиздеть по теме ллм и ригов, то можешь написать на ushirkambele@proton.me, меня уже тошнит от двощевского /ai/ и их мочи. Я даже вечер потратил, чтобы найти дискорд, откуда пришел анон99, но нихуя не нашел, но блять я не верю, что ебаный ментач - единственное место рунета, где можно поговорить о куме на ллм.
Вчера ночью (мой режим сбит к хуям, я только что проснулся) я пытался распердолить FA. Как оказалось, я не могу его собрать на gcc13. Пришлось корячить сборку в контейнере. Взял образ куды 12 на убунте 22.04 от нвидии. Была у них и куда 13, но только на убунте 24.04, а в ней уже gcc13. Скопировал в venv версию питона, торча и поставил собираться wheel на ночь. Сот, собралось вроде. Сейчас буду проверять. Собирается конечно она охуеть долго.
>>1191758 может лучше ты наденешь аватарку и обоснуешься тут тогда? У меня нет фейкомыла... >анон99 я не знаю, кто это >поговорить о куме на ллм А чего о нем говорить? Думаю, ты персонаж опытный. Со временем мы начинаем все острее чувствовать слоп. Я недавно попробовал повиртить с гроком - там тоже почувствовал слоп. Текстовые порнорп для нас уже мертвы априори. Сетки в силу своей природы не могут удовлетворить наши желания. Проблема еще и в том, что никто целенаправленно не тренирует сети на порнорп. Это всегда какой-то огрех, островок не задуманных разработчиком возможностей. Поэтому все такое хуёвое. Я тебя ебу - ты меня ебешь, ах.
>>1192522 да тоже не заметил. Как съедал 20 гб по размеру модели, так и съедает. может быть эффект проявится на 45-минутной озвучке, но странно вообще... Ожидал большего.
набросал сегодня ночью скрипт батчёвой озвучки для книг и запустил. Только проснулся. Всё еще лопатит. Примерно с реальной скоростью чтения RTF (Real Time Factor): 0.94x в среднем Долго. Надо бы свой риг собрать и на нем на 5 карт распараллелить это всё. Интересно кстати как быстро на теслах пойдет...
Отрывки по полчаса примерно. Пытался подобраться к обещанным 45 минутам озвучки, но получал тарабарщину обрезанную до 10 минут. Не знаю, с чем связан такой эффект, потому что никакой ошибки не было. Видимо сеть по какой-то причине преждевременно выдавала EOS токен...
Слушаю "девять миллиардов имен бога" Артура Кларка. Охуенно. Рекомендую. Это... я даже описать это не могу. Слушаешь и получаешь смысловой оргазм. Странно, что я ранее не натыкался на этого писателя когда слушал МДС. А я ведь дохуя их выпусков прослушал. Там сборник рассказов. Вот тот где описана гибель земли от солнца - ПРОСТО ОХУИТЕЛЬНЫЙ. Настолько живо, настолько сочно, небанально описать картину глазами инопланетян. Боже, какой же блять кайф. Как же не хватает таких книг. Господи, как же не хватает. девочки_я_снова_плачу.webm
>>1195218 а вот роберта шекли как раз в МДС довольно много. Наверняка я уже слышал эти рассказы, которые по ссылке. Попозже гляну. У меня есть свой набор книжек.
а может локальной АИ тред создать? только без калотарки в оппосте плиз, дальше калотарь хмммм. ну или я могу как освобужусь создать. сдохнет так и сдохнет, вы залетайте если че
Накорячил в пайчарме автокомплишн с локальным бэкендом на llama.cpp. Не знаю, зачем, но работает. Вон, на ассемблере хелловорлд написал. Я понятия не имею как этот код работает. Он и на брейнфаке пишет, но интерпретатор пердольно ставить.
>>1195821 чем тебе моя калотарка не нравится. Хорошая калотарка. Обижаешь.
>>1198545 > понятия не имею как этот код работает. Помещает аргументы в регистры, номер желаемой функции в первый регистр - аккумулятор, потом дергает программное прерывание 0x80 - т.е. syscall. Написанный код 32 битный, в 64 бит другие регистры.
Что за автокомплишн, просто дополнение текста? Я сейчас экспериментирую с Roo Code (бывш. Cline), либо Aider, но с локальными пока результаты так себе выходят.
>>1198642 >Roo Code погуглил. Ну... что я могу сказать... Выглядит это как охуенный способ словить целый каскад из галлюцинаций, да еще и с замкнутой обратной связью. Пока у нейросетей нет самокритичности за ними придется перепроверять.
>>1199258 чел, агентный мод это база уже давно в прогроммировании с локальной моделью это будет конечно говно. но копайлот и что-то типа сонета - очень даже выручает иногда. накидал задачку + попросил его тесты написать и прогнать. и идешь кофей пить. приходишь а там армяне в нарды играют
>>1199258 Может. Наверное. Читал байку что в процессе говорит, да ну его этот vue, я на react перепишу. Скорее всего решается доп. шагами ревью кода, чтобы чекала что он соответствует требованиям. Я пока ничего с ней не создал. Сейчас пробую. VLLM просто летает, но увы в 6гб врам влезает только какая то убогая сетка. llama.cpp получше, но медленно. Попробую создать SDL3 вращающийся куб. Первая попытка полчаса была неуспешной.
>>1199406 не надо меня убеждать в этом, я в курсе. только я не программист, а SRE. С моими задачами обсирается даже гопота и дипсик. поэтому у меня нет иллюзий, я уже достаточно слопа наелся. >>1199431 >Попробую создать SDL3 вращающийся куб зачем тебе эта фигня? Надо для настоящих проектов использовать. Сначала идея, только потом реализация. Без идеи стохастический попугай заведет тебя не туда. garbage in - garbage out. Надо помнить.
>>1199457 Сам ты фигня. Это вполне реальный проект - использование нового SDL3 SDL_gpu для рендера, включая шейдеры. Во-вторых, тут как раз и проверится, насколько руукод может потом дополнять проект новыми фичами.
люблю локалОчки но для нормального анальничества это не очень. хотя бы по причине скорости. плюс нормально настроить инструмент это, наверное, непростая задачка. у нас сейчас есть выделенный человек который АИ кал конфигурит поверх копр сеточек, типа МСП, например.
но для фана. какого-то петпродежкта. наверное норм, если не спешить...
про замкнутую связь и ограниченность для СРЕ задач, думаю, это хуйня и скилл + среда/процесс разработки ишью.
>>1199505 Может ему и не подходит, кодинг можно обмазать рефакторингом, линтером, статическим анализом, гонять пока не исправятся ошибки компиляции, в идеале тесты, а на серваке ему конфиг похерит, бд сотрет, линукс удалит.
>>1199516 есть такие вещи о которых нейронка просто не знает. На коде её выдрочили. И то она обсирается в нём. Что уж говорить о том, на что её не тренировали. Удивлен, что я должен объяснять такие очевидные вещи.
Пример - конфигурация squid или траблшутинг nccl. Это лично то что у меня было и первое что на ум пришло.
>>1199529 хелмчарт - да. а хелмчарт в котором внутри jinja темплейтинг с js кодом - уже срет себе в штаны. Если ты >я не понимаю значит у тебя не было просто таких задач. Наверное ты джун, я не знаю... или у вас там не инфраструктура, а песочница для детей.
да и хелмчарт кстати тоже блядь. Ты видимо не работал с кубом, если думаешь что генерировать хельмы - простая задачка для нейронок. Потому что она должна учитывать какие у тебя компоненты куда и какая версия апи. А с регулярными обновлениями куба версия апи компонентов тоже меняется. Ну и бля начинается потом буллщит от нейронки "ой извини, ты прав, тут другая версия апи", "ой извини, ты прав, тут должен быть другой скедулер", "ой извини ты прав, такого параметра больше нет, он был переименован". Это буквально горы нейроговна. Сказать что нейронка нормально генерирует хельмы может только человек который нихуя с ними не работал. Да и с кубом бля тоже.
>>1199526 Если настройка сквида гуглится, то она знает о нем столько же, сколько и о коде (ну то есть средненько, но с третьей или десятой попытки сможет). Если она чего-то не знает, то это надо ей скармливать, в промпте, или MCP или RAG какой нибудь.
>>1199550 Не надо меня учить работе с ллм. Я прекрасно знаю, как они сосут жопу. >>1199556 просто иди нахуй. Мне влом что-то доказывать джуну. Сам говна наешься от нейронки, она тебе сама всё докажет.
>>1199571 у тебя ЧСВ начало пробиваться. для калотарок очень типично бзв
так-то на самом деле никто с тобой и не спорит, да, АИ для СРЕ может быть и не так круто как для кода. но, кстати, в первую очередь из-за того что среда разработки для кода обычно более самодостаточная и зрелая. а инфра говно клепают "авось работать будет". парадоксально, конечно. когда на функцию 1+1 двадцать тестов, а на инфру... ну, на енве ниже работает, может и на проде заработает хехе. ну еще кривые лоад тесты в лучшем случае.
>>1199578 Инфра просто не для мартышек, которые код на курсах выучили. Не для средних умов. Поэтому так и получается что ии может заменить кодомакак, а SRE - не может. И нет, у меня не чсв пробилось. Ты меня бля пытаешься убедить что ии - не хуета ёбаная. Я тебе привел конкретные примеры где лично я сталкивался с говном от ии. Ты обвинил меня в скиллишью. Может это у тебя чсв пробилось? Поубавь бля. Охуел чтоли? Самый умный блядь сидит тут.
>>1199588 >>Инфра просто не для мартышек, которые код на курсах выучили. >>Не для средних умов. >>Поэтому так и получается что ии может заменить кодомакак, а SRE - не может.
>80% работы буквально дрочка конфигов "авось заработает" остальные 20% онклол втык в логи и занюх за анальниками
>>1199588 Это нелогично. Программирование сложнее, чем сисадминство, а значит требует более высокого интеллекта, и если оно получается у ллмки, то и админство будет тем более получаться.
>>1199619 >Программирование сложнее, чем сисадминство это схуя ли? инфраструктура более высокоуровневая, чем написание кода. Она выше по иерархии, а значит сложнее. >>1199631 контролируй свой баттхерт, вкатун.
>>1199646 нечего было выёбываться. >>1199664 что ты понимаешь под "всякими сервачками"? По твоему как выглядит работа SRE? Или ты не знаешь? Ты понимаешь, что это управление инфраструктурой компании? В мелких компаниях - да, там хуйня. А в крупных - там ёбнешься. Да, по сути это конфигурация сеервисов. Но ты поди сконфигурируй всю эту залупу.
В противовес, работа программистов - это в большинстве случаев доработки существующего кода или написание велосипедов. Абсолютно тупая хуйня, которую как раз удобно заменяют нейронки. Атомарная. Поэтому легко покрывается тестами. И то в этом они регулярно обсираются.
>>1199736 вкатунище, я не тебя спрашивал. Когда уже съебешь с треда? Ты разве в нем не разочаровался?
>>1199664 да, еще дополню. SRE -это всегда хайлоад. А хайлоад - это умение понимать где у тебя баттлнек происходит. На сложной гетерогенной среде это очень сложно сделать. Многие программы сейчас могут вообще не иметь адекватных логов на возникающие проблемы, поэтому SRE должен уметь читать чужой код и главное - понимать как исправить проблему на его основе, не прибегая к правке этого кода. Анальник мартыхан может нагородить очередной велосипед или пропатчить программу, из-за чего приедтся потом это говно поддерживать, а он съебёт из компании через год. SRE же - это инженерия, архитектура, стандартизация, ответственность.
кароч положняк по господах анальниках и СРЕ (от слова какает) таков СРЕ передо мной стоит там, конфиги дрочит свои, я говорю бля старина съеби нахуй, даю просто говнокод и всё говорю, деплой и съёбывай в новой версии мы с пацанами наебашили n! сложность на ровном месте ну и память понятно само собой течет а че нам норм вон с мсдна бест практисы применили эта хуйлуша деплоит. все падает. контейнеры по ООМ отваливаются кубер его гребаный скрипит по швам база в ахуе прод лег потащив за собою еще 100 сервисов ну хули делать так и быть пусть пока шнырь откатывает я root cause analysis тикет сделаю пищем: новые требования по инфре не были учтены. архитектура инфры фраджайл конец дня. ебашу тикет шнырю фьююю мальчик нам еще эти 10 сервисов и 20 воркеров задеплой нам в дедлайн надо закрываю ноут. иду пить пиво. СРЕ предстоит готовить свою сраку к очередной бессоной ночи
на самом деле я уважаю своих админов но эта калотарка берега попутала
Альсо скорее это выглядит примерно так: Если макакич контрибьютит хуйню - макакичу больше не дают контрибьютить хуйню. Пиздят его на кодревью пятеро на одного, загоняют как собаку блохастую в ехал линтер через линтер, пинают чтобы обвешивал всё тестами. Макакич рвет у себя на жопе волосы потому что его это заебало, но деться ему некуда. Вот как это ближе к реальности.
>>1200246 ты чет попутал пятеро господ алаьников в фифу ганяют вместе и ЛГФМ на код ревью уважительно пишут друг другу (не читая ПР) и потом впятером одного сре ебут
>обвешивал всё тестами. без бэ пишу в копайлот "покрой тестами и проверь" ухожу в ютаб копайлот покрывает код тестами тщательно проверяя чтоб баги срабатывали получаю ЛГФМ на код ревью
>>1200255 в твоих фантазиях. >>1200256 а потом происходит проёб уже не одного мартыхана, а двух - того кто написал и того кто аппрувнул. Плавали, знаем.
>>1193991 Ну вот видишь, ты молодец, уже изучаешь код, значит и писать сможешь, не волнуйся там ничего страшного. Мыслительный процесс в общем-то схож, тоже надо держать в голове всю архитектуру проекта, если у тебя не хеллоу ворлд.
>>1199457 У меня пока больше проблемы с настойкой ллмки, чем с самим вайбкодингом. Например она начинает повторять последнюю строчку без конца, или пытается засунуть все файлы проекта в контекст от чего вылетает оом. Первый эксперимент зафейлен, ллмка не знает как писать SDL3_gpu, ну тут и люди мало какие знают. Решил начать с чего попроще, со змейки в терминале. Мне пока важнее пайплайн настроить.
И только сейчас ко мне начало возвращаться либидо.
До этого я прокрастинировал. Но из этого цикла меня вывел мой тимлид, написавший как дела (а я попробовал ему в ответе отрефлексировать) и один из выпусков с канала "вы обречены" про открытие бара. В нем был чел, который на вопрос "почему ты продолжаешь" ответил "потому что это мой выбор".
Вчера я попробовал пообщаться с гроком на тему TTS в которых были бы учтены разные волновые моменты речи. И он мне начал довольно бодро советовать разные сетки.
Все было хорошо до момента, когда я не попробовал выполнить его инструкции.
Оказалось что грок обсирался буквально на каждом шаге.
Надо бы попробовать с гопотой...