Либо-либо Всем привет! Меня зовут Самат Галимов, и это подкаст «Запуск с автором». Как технический директор я пытаюсь разобраться, как устроены сложные и интересные штуки. Этот сезон тематический. В нем мы на протяжении 10 эпизодов исследуем власть в цифровом пространстве. Кто управляет интернетом?
Кто решает, как мы пользуемся технологиями? Я пытаюсь разобраться, как государство, корпорации и алгоритмы определяют наш пользовательский опыт. А помогает мне в этом профессионала, с которым можно поговорить простым человеческим языком. Сегодня мы поговорим о нашумевшей китайской компании DeepSeek. 20 января они представили свою нейросеть, и реакция была молниеносной. Американский IT-сектор просел на 1 триллион долларов, инвесторы засуетились, в индустрии заговорили о гу...
Наш сегодняшний гость – основатель стартапа в области искусственного интеллекта из долины Артем Родичев. Он нам расскажет, что же произошло на самом деле, как это изменит расстановку сил на рынке искусственного интеллекта и что это будет значить для нас, обычных пользователей. Этот сезон мы делаем вместе с партнером. Экосистема продуктов для бизнеса «Контур». В середине выпуска вы услышите нашу партнерскую рубрику.
Сама привет. Слушателям привет. Меня зовут Артем. Я фаундер, CEO for company XHuman. Мы занимаемся тем, что мы делаем эмпатичный AI. Персонажей, с которыми мне скучно разговаривать. Скажи, что это за продукт такой дипси? Что он умеет делать? DeepSeek — это продукт в виде нейросети. Лиз от китайской компании одноименной. Это их не основной бизнес. Раньше это был хедж-фонд. Они зарабатывали деньги на алгоритмическом трейдинге. Нанимаем математиков, программистов, машинников.
миллионеров, которые обучают какие-то модельки, которые предсказывают какие-то данные на финансовых рынках. И они с помощью этого зарабатывали. А что, тренировать такие модельки финансовые? Тебе тоже нужны какие-то ресурсы. Тебе нужны ГПУшки. GPU, или как обычно говорят, GPU, это Graphics Processing Unit, графический процессор. Они используются для того, чтобы играть в видеоигры и для больших вычислений.
И они начали, видимо, закупать ГПушки сначала для своей алгоритмической торговли. А потом в какой-то момент они, видимо, поняли, что им скучно, надо дальше заниматься алгоритмической торговлей и на этом только деньги зарабатывать. А решили пойти в такой прям фундаментальный EA Research.
Они начали выпускать свои нейросети какое-то время назад. Там первый релиз дипсика был в 23-м году еще. И они позиционировали просто как такой китайский open source, что мы будем делать модельки, выпускать их в открытый доступ и будем делать такие Китайские большие LLM-ки. LLM-ки или Large Language Models. Это большие лингвистические модели. Проще говоря, современные нейросети. Которые NPR будут или пытаться будут смачить. ASTITUS ART.
модели, в том числе open-source, которые выпускают американские компании. Артем имеет в виду, что в DeepSeek захотели сделать такие модели, которые сравняются по качеству с ведущими мировыми моделями, моделями американских компаний.
Вот, но это не особо было каким-то большим прорывом, большим бумом. Многие занимались тем, что они тренировали какие-то свои модельки и делали их open source. Тот же Мистераль. Французы, они тоже, у них самый бизнес, это делать вот open source модели. Потом как-то там зарабатывали консалтинги, например. что ребята с дипсика развивались-развивались
При этом у них не очень большая команда, кто занимается именно AI-моделькой. То есть там их до 100 человек, возможно, даже в районе 50. Относительно OpenAI, которым там тысячи ресерчеров, средняя зарплата в миллион в год. В дипсике китайские инженеры...
сильно дешевле, их сильно меньше было. Это одна из их интересных особенностей. И, по сути, вот фурор, который они производили недавно, чем они вообще стали знамениты? Тем, что они выпустили модель Deep Seek. Сначала была V3, которая была неплоха, но
не было прорывом для комьюнити. Для комьюнити, для обычных пользователей, стал прорывом модель R1. Это модель, добылоченная на базе DeepSeek V3 модели, в предыдущей версии, с помощью рефорсов-клёнинга. То есть, суть этой модели в том, что она, прежде чем тебе выдавать ответ, она
еще резонит. И она начинает размышлять. То есть она начинает биллировать какое-то количество токенов, размышляя про текущую проблему. То есть сначала она говорит, насколько я понимаю, у тебя проблема такая-то. Значит, давай подумаем, как мы ее можем степ-бай-степ решить. И вот, скорее всего, тут он сделал шаг 1, шаг 2, шаг 3. И вот она...
пишет план мыслей того, как она будет решать твою проблему, и на основе этого плана начинает ее решать. После этого резинга она у тебя уже выдает какой-то финальный ответ. И путем того, что она резинит, ты перекладываешь compute с момента тренировки нейросети на момент инференса. Inference — это когда нейросеть работает, то есть вы что-то у нее спрашиваете, она начинает отвечать. Вот это получение ответа из нейросети называется inference. Ну, его противопоставляют обучению или тренингу.
То есть, в момент инференса модель начинает использовать больше компьютера, она думает дольше. Из-за этого она может давать более качественные ответы. Она может решать какие-то более комплексные задачи, которые требуют многоходового размышления. То есть, опять же, это как у человека. Есть простые задачи, есть ложные задачи. Там простая задача 2 плюс 2.
выплюнуть сразу ответ 4, не особо думаю. А есть какие-то сложные задачи, там проанализируя состояние рынка open-source нейросетей на 2025 год. И там нужно много всего поделать, понять, а вообще, что такое состояние рынка, в чем это там. анализ, какие источники нужно использовать, походить по этим источникам, сегрегировать данные, то есть много-много шагов. Вот, и как раз-таки прорыв DIPSEC-моделей заключался в том, что они выпустили модель DIPSEC R1, которая по качеству сравнилась с OpenAge
о один модели. И, соответственно, OpenAI, в отличие от DeepSeek, никакие свои модели не выкладывают в открытый доступ. Ну, в смысле, без сайта этих моделей или код, на который эти модели тренируются или интересуются. Там все модели ты можешь получать только через API. И то же самое там у других.
топ AI-компании в Америке, OneTropica, Google, они все представляют свои модельки через API, никто их не опенсорсит. Китайцы чем удивили? Во-первых, тем, что они заопенсорсили такую модель, которая по качеству смачилась с OpenAI. А во-вторых, то, что не сильно демпинганули цены. У них модель довольно эффективная получилась с точки зрения костов на использование этой модели. А именно она стала в 10-20 раз дешевле, чем модель от OpenA1. При этом имеет такое же качество.
И, собственно, вот эти два фактора и взбудражили мир. То есть они показали, что мы, значит, маленькой китайской компанией можем сделать китайскими ресерчерами без американских публикаций, без глубоких деталей, без понимания того, как... это устроено в OpenAEA, в Антропике и так далее, потому что не публикуют на год. Ну, как они тренируют эти сетки? Просто на таком ресерч-эндузиазме.
они смогли сматчить качество OpenAI. То есть там есть еще шутка по поводу того, что OpenAI нон-профит изначально организация была. Значит, в каком действительно мире мы живем, что нон-профит на самом деле казался самой жадной до денег организации, а значит хедж-фонд делает open source. Китайский хэчфонд делает open source.
Американский нон-профит максимально гриди компания. Это реально очень смешно. Дипсик пошли по пути того, что, ну, мы уже бабки заработали, у нас уже есть там классные ресерчеры, а там фаундеру хочется заниматься, видимо, очень ей.
Это очень сильно толкает ресерс вперед, нежели чем ты, даже будучи у тебя там тысячу супертолагнутых инженеров, которые сидят в одной лабе, у тебя все равно так или иначе создается байос. То есть у тебя есть там корпоративная рука, которая тебе говорит, что тебе нужно делать, когда тебе нужно делать. А так у тебя есть 8, наверное,
человек, которые в свои руки могут получить эти сетки, прочитать все эти статьи, на своих там не очень мощных видеокартах про их даже запустить. Дипсик, он на самом деле такой же крутой, как ведущие модели OpenAI, Anthropic и Google, которые доступны широко.
публики. Ну, они примерно на НПР, да. Там же много разных задачек может быть. Там есть задачи на программирование, задачи, не знаю, на какие-то тексты. Вот есть этот текст, есть и вопрос к этому тексту, и ты должен понять, проанализировав этот текст, ответить на эти вопросы. Ну и так далее.
разных тасок с разных сторон. И, соответственно, они там на какие-то, да, что-то чуть лучше, на каких-то задачах чуть хуже, но примерно, если average брать, плюс-минус такие же получаются, да, как какая-нибудь O1 модель. То есть вот сейчас OpenAI релизит O3 модельки. Они особенно
там O3 High, который долго думает, использует компьютер, они посильнее уже будут, чем R1 от DeepSeek. Но они сильно дороже. Для нас, для потребителей, когда ты выбираешь, что тебе использовать, там, Cloud от Anthropica, что GPT от OpenAI или там DeepSeek,
сетку, то ты, скорее всего, выберешь дипсик, потому что она будет в 10-20 раз дешевле. То есть, опять же, зависит от задач. Если тебе нужна прям супер высокая точность, ты готов долго ждать и готов за это платить, ты пойдешь в OpenAI. Если тебе нужно решать какие-то плюс-минус стандартные задачки, которые ты решал, не знаю, с помощью GPT,
4О, и даже с помощью O1 модельки ты пойдешь в дипсик, потому что оно будет в 20 раз дешевле, будет работа принята дальше по качеству. Для тех, кто этим не пользуется, порядок цен в 20 раз, это значит...
Ну, там, не знаю, один запрос в OpenAI стоит условно доллар, в DeepSec он стоит 5 центов? Такое? Ну, типа того, да. Примерно так. Мало того, что они смогли смачить, они выкатили это open source. Мало того, что они выкатили это open source, использование их моделей в 10-20 раз дешевле, чем O1 в том же самом качестве.
И вот вся эта совокупность факторов переполошила весь мир. Все такие, блин, раньше штаты были гегемоном в AI, все там State of the Art модельки выходили из штатов, а теперь картина меняется, теперь Китай не только догнал, но и в каком-то смысле перегнал. Америку в плане того, что они эти модели open-sourcers, что они довольно дешевые.
что они полностью раскрыли весь процесс того, как они тренировали эти модели. Как устроена архитектура, какие они там сделали хаки архитектурные, чтобы учить такие модельки. Полностью все рассказали, как это было сделано. Но опять же, там нет такого, что ты будешь просто нажать одну кнопку, скормить...
файл с данными и на выходе получить модель DeepSync, когда же у тебя есть все ресурсы. Потому что там есть определенные скрытые компоненты. Например, они вот только недавно рассказали, что они дообучались на данных из OpenAI, из GT4O1. Признались в этом. Потому что их прям схватили.
и сказали, типа, ваша модель отвечает, что я, значит, чай GPT-модель. То есть, когда ты у дипсика спрашиваешь, а кто тебе сделал, они говорят, что я сделал OpenAI. Ну и так далее. Вот откуда она могла это выучить, только обучаясь на данных OpenAI. То есть, чтобы модель научилась делать какой-то ритинг, тебе нужно обучать такие. модели на резинг-данах. То есть на данных, в которых уже написана какая-то задача, и написан резинг последних мыслей, как ты приходишь.
к правильному ответу. И вот недавно они признались, что вот эти reasoning-таски они брали из GT4. Потому что изначально откуда тебе набирать вот эти данные с reasoning-ом? Это довольно тяжелые данные. То есть OpenAI, скорее всего, на это тратил много денег на найм людей.
на модерацию этих ответов, на написание этих ответов. Ну, то есть это такой кропотливый процесс, чтобы создать хороший датсет. А ты можешь его не создавать, не тратить все эти деньги, а довольно дешево, дернув API, OpenAI, получить все эти данные, по сути. Потом на них научиться. Так, на самом деле...
деле ловится довольно большое количество open-source моделей, которые дистиллируют OpenAI, а потом OpenAI. А по Terms of Use OpenAI ты не можешь использовать их модели для того, чтобы дистиллировать свои какие-то модели.
Дистиллировать, это значит, ты запускаешь... Это значит, что ты получаешь данные из этой модели, на которые ты обучаешь другие модели. Но не только они это сделают. То есть их основная победа не в том, что они эффективно дистиллировали GT4. Но там есть прикольный мем про дипсик, значит, что...
сидит кот, рыбачит рыбу в озере, и над котом написано OpenAI, и что они вот вытаскивают таким образом данные откуда-то из интернета. На второй картинке приходит другой кот, который рыбачит уже из ведра первого кота, который складывает себе рыбу в это ведро. И что дипсик, по сути, таким образом...
очень эффективно вычинял какие-то важные данные из OpenAI, на них смог добучиться и вот таким образом смачить качество OpenAI. То есть вот про вот эту часть, как они получали вот эти данные в статье, ничего про это нет, и вот только недавно как-то они косвенно в этом признались.
плюс, например, они вкладывают датасет, на котором они учились. То есть, обычно все так или иначе учатся там на интернете данных. Что значит учиться на интернете данных? То есть, обычно вот Эллайнки, они учатся на тексте. То есть, это объем интернета, текстовых данных. Но данные...
в интернете бывают. И, например, самый известный источник данных интернет-скейла — это Common Crawl. Common Crawl — это опенсорсный проект, который краулит интернет и складывает архивчики в открытый доступ. И, по сути, любой может получить доступ к этим архивам. Ты можешь прийти,
скачать, я не знаю, там, текстовые данные, почти все 8 интернета за последние лет. И на них допучаться. Но при этом в этих данных много мусора. То есть в интернете куча спама, куча там, куда-то там все оптимизации, куча мертвых сайтов и так далее. Там еще...
еще возникает куча дубликатов. И, соответственно, тебе нужно как-то данные массажировать. Тебе нужно понимать, какие данные тебе оставлять, какие данные хорошие, какие нехорошие. Там, не знаю, на фейк-ньюс ты тоже, наверное, не хочешь учиться, на дисформация какой-то и так далее. На пропаганде ты не хочешь учиться. Вот, и чтобы это все понимать...
Там тоже есть определенные хаки, как ты довсет массажируешь, какие фильтры ты применяешь. Иногда они там довольно комплексные, чтобы отобрать именно хорошие. датасет. А это они тоже не выложили. То есть, да, мы учились на интернете данных, но как мы конкретные данные готовили, что там за конкретные были данные, мы вам не скажем. Возможно, там были какие-нибудь, я не знаю, данные коммунистической партии пропагандистской, которая рассказывает, какой Китай беликий.
и не рассказывают, не знаю, про какие-то события, которые про Винни-Пуха не рассказывают. Что-то в таком духе. Президент Китая Си Цзиньпинь немножко похож лицом на диснеевского Винни-Пуха. В какой-то момент интернет-пользователи это заметили, начали его троллить. В ответ власти Китая запретили какое-либо упоминание Винни-Пуха в китайском интернете.
Про русский язык очень интересно. Она говорит по-русски лучше или хуже, чем американская модель? Или это вообще никому не важно? Ну, она говорит окей на русском языке. Ты, как носитель русского языка, скорее всего, поймешь, что, ну, она не говорит прям как native. То есть она говорит как...
который хорошо улучшил русский язык. Это просто проблема из-за распределения языков в интернете. То есть в интернете преобладающий язык это английский. Ну и, соответственно, китайский тоже. В китайском современном интернете огромный пласт языков. Все остальные языки, они составляют там десятую часть от... английского и китайского. И, соответственно, все зависит от трансэта.
Они очень хорошо говорят на английском, на китайском языке, нормально говорят на русском языке. С точки зрения художественной ценности, там, если ты хочешь произведение, стих написать, что-то в таком духе, на английском языке сильно лучше у тебя будет, с точки зрения вот этой вот конститентности текста красивого. текста, натуральность текста, чем на русском языке.
Сейчас мы приведемся на партнерскую рубрику, которую в этом сезоне делаем вместе с IT-разработчиком Контур. Команду Контур разрабатывает сложные цифровые продукты для бизнеса уже больше 35 лет. Вместе с Контуром в каждом эпизоде мы рассказываем про один принцип работы классной и эффективной
IT-компании. Я объясняю, как этот принцип реализован в моем бизнесе, а эксперты с контур рассказывают, как все устроено у них. Сегодня мы поговорим про влияние на процессы. Я сооснователь небольшой компании по аутсорс-разработке. У нас всего 25 программистов. И кроме основной работы программира... Каждый из них отвечает еще за что-нибудь
Например, есть разработчик, который отвечает за собеседование с кандидатами. Он сам решает, как именно это делать. Вместе с ответственностью за задачу мы даем сотрудникам возможность самим определять способ ее решения. В компаниях побольше процессы зачастую более формализованы, но тем не менее в контуре действуют. Сейчас Дима Хамутинин, директор по новым продуктам из Контура, расскажет, как их сотрудники могут влиять на процессы изнутри.
Если у нас появляется сотрудник, у которого есть идея, как что-то сделать лучше, он просто может пойти, начать и это делать. Заручиться поддержкой в комьюнити своего руководителя и пойти уже после этого внедрять изменения. создавал, например, некоторое время назад функциональную зону продуктового менеджмента. Я сталкивался с регулярными задачами по найму новых специалистов. Мне их необходимо было искать по какому-то...
Мне нужно было формулировать каждый раз этот портрет. После этого пройти процесс адаптации этого специалиста. Всё это необходимо было делать прецедентно по каждому специалисту по отдельности. А системных подходов не было. У нас в компании на тот момент...
момент по другим функциональным зонам уже достаточно сильно продвинулись по тому, чтобы какие-то хорошие практики отмасштабировать и решать эти задачи системно. До функциональной зоны менеджеров этой истории просто еще не до... Я конкретизировал проблематику, заручился поддержкой своего руководителя.
сообщества комьюнити и просто начал действовать. Вместе с командой единомышленников мы разработали единую матрицу компетенций, которая объединяла всех продуктов и проектов и синхронизировала ожидания к этим менеджером от бизнеса. И это стало хорошей рабочей практикой, которая отмасштабировалась во всей функциональной зоне, во всех бизнес направлениях.
Контур – экосистема продуктов, которыми пользуется каждая третья компания в России. Переходите на карьерный сайт по ссылке в описании эпизода, чтобы больше узнать о работе в Контуре. Ты сказал, что это навело шорох, что все перепугались. Скажи, что произошло на фондовом рынке? Какая была реакция? Ну, первая реакция, бей или беги, вот, случилась реакция беги на рынке. Из-за совкусности факторов. То, что дипсик сделали это без миллиардов инвестиций. Дипсик
к этому котелу open source, и они депендули рынок в 10-20 раз по стоимости этих моделей. Это навело шорох в Америке, потому что основной американский тезис у EA-компании был такой. Нам нужно очень много GPU. Они очень дорогие. И нам нужно много инженеров. Они тоже очень дорогие, которые могут строить и модели, строить архитектуру, тренировать такие модели. И плюс нам там нужны огромные дата-центры, нужны какие-то партнерки со сотнями тысяч GPU. Там стоимость таких дата-центров
несколько миллиардов долларов. Если на тезис был американских AI-компаний, давайте нам много бабла, потому что вот нам это бабло нужно вбухивать в AI, без него у нас не будет сильного роста. А еще мы не будем им отсорсить никакие наши сетки, чтобы оставаться cutting edge, и чтобы нас не догнать.
Далее другие недемократические режимы. И вот этот тезис развалился абсолютно. Потому что пришел дипсик и показал, что, во-первых, вам не нужно триллионы ГПУ и миллиард инвестиций. Вам не нужны какие-то огромные команды, топ ресерч.
в котором вы собираетесь со всего мира, вам нужны просто талантливые китайские инженеры, которые ничуть не хуже оказались, чем американские. И, соответственно, таким образом мне показали то, что, а зачем вообще все эти деньги, все эти инвестиции, весь этот хайп в AI, когда это может делать сильно дешевле, сильно эффективнее.
и у вас в Америке нет никакого моута. Моута, то есть, как это называется? Рофф, Рофф, OpenAI. Почему там стоит 150 или 200 миллиардов долларов сейчас? Потому что они как бы лидеры на рынке, у них большое имя, и они будут за свой бренд. Когда ты инвестируешь в OpenAI, ты переплачиваешь некий премиум.
вот этот бренд. В надежде, что никто их додать не сможет, что они построили некоторую вокруг себя стену. А на самом деле оказалось то, что нет никого МОТа OpenAI. Ну или, по крайней мере, то, что сейчас в паблике находится...
Китайцы показали, что они смогут смачить то, что делает OpenAI. Почему компания стоит 150 миллиардов долларов, если точно такая же сетка уже в OpenSource валяется? Слушай, Артем, у меня миллион вопросов, но первый вопрос такой, за счет чего они смогли это сделать? Почему у китайцев получилось так?
дешево. А здесь есть несколько трендов, которые совпали. Во-первых, там есть два аспекта цены аниверсити. Первый аспект это цена тренинга, то есть как ты обучаешь эти сети, сколько это стоит. А вторая это цена инференса, вот сколько у тебя стоит один запрос — обращение к этой сети. И они показали, в статье упомянули, про 6 миллионов долларов, которые они потратили на трейд. То есть самые большие косты при тренировке таких больших моделей, они пока что уходят на трейд.
То есть, например, Сеон Тропика говорил, что их с Ане 3,5, которые они тренировали 9-10 месяцев назад, им обходилось несколько десятков миллионов долларов. То есть, он назвал конкретную сумму, но это десятки миллионов долларов. Дипсид показал, что это можно сделать там за... 6 миллионов долларов.
5-10 раз дешевле, чем это дело Антропик. Но там есть несколько трендов. Есть хардварный тренд, есть алгоритмический тренд. Железо стало дешевле. Это раз. Есть там общий закон Мура, и в ГПО он тоже особенно хорошо прослеживается, что у тебя компьют при той самой...
цене удваивается каждый год или там каждые полтора года. И, соответственно, есть тот же самый закон, что выходят новые ГПУшки, они становятся более эффективные, более мощные при примерно той же самой цене, которой были ГПУшки год-два назад. Вот, соответственно, по
Просто за год прошло уже достаточно количество времени, что просто компьютер стал дешевле. Два. Тут эти 6 миллионов, про которые они пишут, как кажется всему комьюнити, что это полный фейк. Потому что у Китая есть экспортные ограничения на чипы. И в частности, Америка, NVIDIA, американские... компании не могут поставлять в Китай State of the Art GPU. Самые последние модели GPU в Китай не поставляются.
они поставляют какие-то урезанные видеокарты, и особенно они урезают эти карты для тренировки. Потому что для тренировки тебе нужен там большой коннект между видеокартами, а у тебя в картах должна быть большая распространенная способность между памятью и процессором. А для inference не настолько важны.
эти штуки. И, соответственно, те чипы, которым поставляются, там H800, еще там какие-то модификации, они хуже, чем H100 и особенно более слабы для тренировки. Потому что Америка все боится, чтобы Китай не тренировал EGI-1. Слишком умные модели. Да.
Но при этом там типа вот этот фаундер и ребята, которые написали статью про дипсик, они говорили, что вот мы там в далеком 2021 году, когда еще не было этого экспортного контроля, накупили там десятки тысяч видеокарт, но тогда видеокарты не были такие мощные.
в которых они могли тренировать такие модельки. Плюс там они, конечно же, не раскрывают. То есть в Китае, скорее всего, есть контрабанд этих видеокарт. Вполне легко купить пачку видеокарт в какую-нибудь страну, в которой нет эксплуатационного контроля.
в Южную Корею, в Японию или что-то, а потом оттуда уже везти в Китай. Соответственно, NVIDIA Америка не узнает по поводу того, куда дальше поехал грузовик с видеокартами, потому что у них изначальный покупатель был в Казахстане, в Японии и в Южной Корее.
Соответственно, кажется, что в Китае довольно много, несмотря на все эти экспортные ограничения, довольно много топ-карт. Там те же самые H100 от NVIDIA. И кладывается ощущение, что все-таки тренировка не стоила 6 миллионов долларов. То есть, чтобы натренировать такую модель, по приводительным оценкам,
им нужно 50 тысяч аж 100 видеокарт. Стоимость такого кластера — миллиард долларов. Вот, соответственно, вот эти 6 миллионов, про которые они пишут, что им пришла тренировка, ну, это, скорее всего, фейк. Потому что они не могут в статье рассказать про то, что, да, мы нарушили экспортный контроль, мы контрабандой...
если как-то аж 100 видеокарты, у нас их на самом деле там не 5 видеокарт, а 50 тысяч, все это они не раскрывают. Но, тем не менее, тренировка у них, правда, получилась довольно эффективная, потому что все-таки не столько много видеокарт у них, как у OpenAI, как у Anthropica, как у Google.
раз в пять меньше, допустим. Но это значит, что тебе нужно или там в пять раз больше времени, чтобы тренировать такие сетки, а тренировка не быстрая. Тренировка может занимать месяц, и тебе нужно будет ждать не месяц, а пять месяцев. И плюс ты не можешь тренировать еще там модели
супер большого размера. Они тоже у тебя не поместятся на маленькое количество видеокарт. Соответственно, они, скорее всего, потратили сильно больше денег на тренировку, чем они пишут. Но при этом они сделали еще второй тренд, помимо удушевления железа, это алгоритмический тренд. Что алгоритмы улучшаются...
Каждый год тоже там с каким-то коэффициентом. Типа там коэффициент около двух. Типа два с половиной. Что у тебя на том же самом железе ту же самую задачу ты можешь решать в два раза эффективнее. В два раза тренировать быстрее в своей нейросети каким-то образом. Потому что у тебя просто алгоритмы стали такие, что ты...
придумал какие-то алгоритмические улучшения, как тебе более эффективно делать диетные спуски, более эффективно архитектуры этих нейросетей на видеокарты засовывать, какие-то там хаки внутри этих архитектур и так далее. Вот еще идет вот это алгоритмическое улучшение.
Итого, за год понижение стоимости тренировок таких моделей примерно 4-5 раз. И вот если мы это сравним уже с общим трендом, то, скорее всего, сейчас, чтобы OpenAI или Антропику натренировать модели такого же размера, такого же качества,
нужно будет примерно те же самые 6-10 миллионов долларов, которые потратил DeepSeek. Но OpenAI не тренирует такие модели, потому что у них уже там O1 сколько-то месяцев существует. Они идут дальше. То есть они эти модели скейлят, они тренируют O3 модель, которые более...
умные, более большие и так далее. И вот здесь поэтому есть такой как бы, с одной стороны, Китай догоняет, с другой стороны, они вот только-только догнали, только-только сматчили предыдущей версии, которая уже давно в продакшене у OpenAI и Leontropica. А OpenAI и Leontropica идут дальше. Вот, то есть,
нельзя сказать, что китайцы начали лидировать. Они на шаг как бы позади все еще. Но они сильно догнали. То есть, вот по этой лестнице, если посмотреть, там очень много ступенек, и вот они просто на предыдущей ступеньке. Не знаю, если мы посмотрим на какие-то другие страны, но очень далеко, например, в России нет таких неразначных
сетей, то есть там в России есть разные сетки от Сбера, от Яндекса, но они все далеко не матчат ООН. По качеству или даже там GT4O они не матчат. А китайцы единственные из стран, помимо Америки, кто смогли сматчить такой качества. Нормально. Про алгоритмические прорывы еще хочу спросить. Я правильно понял, что речь идет о маленьких технических изменениях, а не то, что они придумали какой-то прорывной ход, который типа все перевернул?
Это просто сбор маленьких изменений. По сути, это сбор небольших хаков, которые ты делаешь на разных частях архитектуры трейна и инференса, которые тебе позволяют лучше. Ну, типа ты в одном месте подкрутил, там плюс 20%. В другом месте подкрутил...
плюс 10%, в третьем месте подкрутил плюс 5% и так далее. Сделать 10 таких итераций, там, каждый инженер у тебя работает на одной фичой какой-то, 10 инженеров параллельно поработали пару месяцев, вот тебе, пожалуйста, 2-3x ускорения. Звучит очень круто, при этом ты вначале сказал, что вот
американцы впереди в планеты все, и теперь оказались китайцы типа на шаг позади. Означает ли то, что DeepSeek open source, что в России могут прямо взять и сделать свою нейросеть сравнимому качеству? Да, конечно. Но насколько это имеет смысл? У тебя есть DeepSeek, но ты...
можешь фонтюнить как-то на чуть больше русскоязычных данных, чтобы она чуть-чуть получше на русском языке разговаривала. Ну да, можно так сделать, но тут нет никакого прорыва вообще. То есть ты просто берешь как-то дофонтюниваешь текущую сетку, текущую open source на чем-то своем. То есть ты не прив...
внес ничего нового, никакой новой архитектуры. Это просто там, когда обучился, возможно, тем самым... Ну, то есть, товарищ, до обучения дипсика. Ты взял код дипсика, ты взял модель дипсика, ты просто принес какие-то свои данные.
которые у тебя были. То есть в этом тоже может быть ценность, конечно, в том, что ты приносишь свои данные. И модель на русском языке начинает лучше резать, лучше работать. Но тут нет никакого прорыва. Окей. Но, тем не менее, про свою нейросеть очень хочется узнать. То, что она open source, это значит, что я могу ее запустить на своем собственном железе и пользоваться без...
из интернета? В общем случае, да. Зависит от того, какого размера модель и какое количество железа у тебя есть. Например, чтобы запустить дипсик, тебе нужно 8 видеокарт H100, у которых по 8 гигабайт памяти.
каждая такая видеокарта стоит... Каждая такая видеокарта стоит примерно 40-50 тысяч долларов. Ого, нормально, то есть мне нужен компьютер стоимостью 400 тысяч долларов. 400 тысяч долларов, да, да. Может быть, чуть подешевле он будет, но вот примерно такие цены, да. Или ты можешь арендовать месяц аренды,
Например, на Амазоне тебе обойдется в 40-50 тысяч долларов такого сервера. А если есть альтернативные провайдеры, тебе можно искать такие сетки, там RunPod, DigitalOcean и так далее, тоже, которые ППУ предоставляют. Вот самое дешевое, что мы используем... как раз так сервера с 8, аж 100, что по инфрите LLM-ки большие. А нам один такой сервер в месяц обходится примерно в 12-15 тысяч долларов.
Это самое дешевое, что вообще сейчас можно найти на рынке. А в 3-4 раза дешевле, чем на Амазоне. Ты это будешь арендовать на AWS. То есть это дорого. При этом есть разные подходы. Как ты можешь эти модели все-таки развернуть у себя? Во-первых, есть подходы, которые называются дистилляцией.
То есть ты берешь маленькие модели и в них дистиллируешь здание из большой модели. То есть если у тебя есть модель на 400, не знаю, миллиардов параметров, такая модель называется учитель. И у тебя есть маленькая модель, которая называется ученик. И она начинает учиться на распределении большой модели. То есть там есть, не будем вдаваться в подробности,
Там процесс сильно отличается, что ты модель с нуля тренируешь, или ты тренируешься в большой модели, но ты можешь как бы знание с большой модели приносить в маленькую модель. Она будет работать чуть-чуть похуже по качеству, но она будет сильно дешевле для интернета, сильно доступнее. То есть большая модель уч...
Вот это условно оригинальный дипсик, для которого нужна тачка за четверть миллиона долларов минимум. А рядом ты ставишь маленькую модель, которую можешь запустить уже на обычном компьютере. Да, ну то есть обычный компьютер, опять же, там должна быть видеокарта, скорее всего, или там у тебя должен быть какой-нибудь...
не знаю, последний Mac, где у тебя Unified память, там 128-256 гигов памяти, самый последний там M3 чипы какие-нибудь, M3 Max Pro Ultra, что-то такое. И у тебя есть консюмерская просто классная карта, типа там Nvidia 4090, они довольно неплохие.
с точки зрения перформанса. Единственное, там не очень много памяти. То есть в таких картах, в консюмерских картах, самое большое отличие от сервера Great Card, от Enterprise Card, это количество памяти. То есть в H100, например, есть карты по 8 гигабайт базовой комплектации, есть карты по 96 гигабайт
Ты плюс можешь совместить там два чипа, и у тебя будет там 160 гигабайт, а ты можешь Unify получить память. А на консюмерской части у тебя есть только 24 гигабайта. Вот, соответственно, это зависит от того, какого размера модель ты можешь вместить. Но также, помимо дистилляции, есть еще способы...
квантизация. То есть ты можешь использовать меньшую точность вычислений. То есть в оригинальной там все веса хранятся сейчас стандартом FP16. То есть floating point 16 бит. Откратишь на одну чиселку, которую ты хранишь. И вот там сколько у тебя весов?
столько чисел тебе нужно. То есть, если там говорят, что модель у тебя на 405 миллиардов параметров, значит, что у тебя хранится там, у тебя, по сути, это огромная CSV, где 405 миллиардов чиселок. Каждая чиселка — это 16-битный флот. И, соответственно, такие модели можно квантизировать.
тем, что ты начинаешь использовать флоты или инты меньше битности. И, например, довольно рабочие способы есть уже и FP16, и FP8, то есть 8 бит тратишь на флотинг-поинт, 4 бита, и дальше с интами работают. То есть ты просто отбрасываешь... Да, да, но ты не просто так их отбрасываешь, так, скорее всего, не будет работать. Там есть определенные способы, как ты берешь и сеть как бы калибруешь с меньшей битностью. Опять же, там может быть понижение качества, третически это происходит, но...
то есть, если тебе нужно прям state of the art качество, это будет дорого и на большом железе. Если ты готов пожертвовать чуть-чуть качеством, ну, условно, там на 5-10% похуже тебе модель будет отвечать. Не настолько умная, там почаще чуть-чуть будете ошибаться. Но ты можешь дистиллировать,
комментировать такую модель и вместить на своем контейнерском железе. И, например, то же самое там у DeepSeek, когда они релизировали на своей модели, они помимо большой модели релизировали сразу и дистилляции этих моделей.
Вплоть до того, что у них есть модель на полтора миллиард параметров. На полтора миллиард параметров просто, я не знаю, ты даже без видеокарты у тебя можешь запустить на своем процессоре. Будет медленно, конечно, работать без видеокарты, но там средний пользователь даже это может делать у себя. А на телефоне можно ее запустить?
Энтузиасты, которые пытаются это запускать на телефона. Но особенно если мы берем последние спортфоны, какие-нибудь iPhone 16 или Android последние, у них чипы уже довольно неплохие, которые позволяют инфрить модельки небольшого размера. Скажем, до миллиарда параметров на девайсе.
Но до миллиарда параметров это значит, что у тебя сетка сама по себе не супермощная. Такие сетки обычно используются тогда, когда тебе нужно решать какие-то прям очень специфические задачи. Например, если ты хочешь, чтобы у тебя модель исправляла грамматику, вот и можно тренировать какую-то небольшую модель.
модельку, которая тебе очень хорошо будет исправлять грамматику на телефоне. Или которая, не знаю, суммаризацию делала бы, писем каких-то. Она тоже может делать такую суммаризацию, она не будет это делать идеально, как делал большие модели. Она у тебя будет галлюционировать. То есть, чем меньше модель, тем как бы она тупее, больше
шансов на то, что она там что-то загаллюцинирует, что-то не то скажет. Поэтому с телефонами сложно. То есть хоть сколько-то более-менее адекватной сетки, там LLM, если мы говорим про LLM, скорее пока нет на телефонах. То есть прям каких-то кейсов больших, чтобы...
кто-то принес LM на телефон хорошего размера, я не видел. То есть даже Apple, они вот говорят, мы, значит, Apple Intelligence делаем, он девайс, все секьюрно, никуда ничего не погибает ваши телефоны, но когда тебе нужно решить какой-то сложный таск, они говорят, а мы...
сейчас в чат GPT пойдем. А это будет передаваться куда-то на сервера. Вот. И поэтому там какую-то простую задачу улучшения... Ну, то есть Apple заморачивается тем, чтобы с ней какие-то сетки про улучшение фотографий, распознавание сцен. Вот что-то такое можно делать on-device. Если ты затачиваешь чипы и сетки... конкретно под решение этих задач. Если хочешь General Purpose LAMP, сервить на телефоне пока это сложно.
У студии Либо-Либо есть курс о том, как делать разговорные подкасты. В нем сотрудники студии рассказывают, как пройти путь от идеи до публикации и делиться практическими советами. Уже прошло нескольких потоков, а 3 марта стартует новый, и на него есть свободные места.
Для прошлого потока я проводил бонусную лекцию для студентов и делился своим опытом в подкастинге, как мы работаем над этим подкастом и чему научились за 5 лет ведения запуска завтра. В общем, на курсе куча полезной информации и практических занятий. Если вы давно хотели сделать свой подкаст, соединяйтесь. Все подробности по ссылке в описании.
Такой бытовой вопрос. Я плачу 20 баксов в месяц за ChatGPT. Скажи, я зря это делаю уже? Ну, в целом нет, потому что это довольно удобно. 20 долларов не такие большие деньги. То есть, если бы ты сказал, что я плачу 200 долларов за вот эту ультрамодель, ультраподписку от ChatGPT,
тогда я бы сказал, что, ну, it depends. Потому что недавно они выпустили прикольную фичу, которая позволяет делать ресерч, глубокий ресерч. То есть ты говоришь, проанализируй мне, я не знаю, состояние рынка open-source AI на 2024 год. Она пойдет там по куче источников, проанализируй.
то есть она тебе вернется с результатом через несколько десятков минут. Она будет ресерчить и думать. Вот это прикольная, может быть, фишка. Многие готовы будут платить за это 200 долларов. Там особенно какие-нибудь McKinsey, Big Five, какие-нибудь аналитические конторы, если тебе нужно конкурентов своих анализировать. бизнесов, это прям крутая фича. Если ты обычный пользователь, тебе эта фича нахрен не нужна,
плачет 20 долларов в месяц, it's okay. Ну, то есть, никакие космические деньги. Можно, конечно, делать дешевле, можно там ходить в какой-нибудь Together AI, Open Router, какие-то сервисы, которые на своей стороне хостят разные модельки, и, например, там уже платить за каждый ИК,
call, то есть если ты особенно не очень много используешь, не очень много там у тебя input токенов, не очень много output токенов, тогда можно пойти на какие-то такие провайдеры и там платить, не знаю, пару долларов в месяц. Я просто пользуюсь OpenAI и Perplexity и знаю, что они умеют
ходить по интернету и искать там за меня информацию. Вот похоже на то, что сказал про ресерч, но может быть там вот конкретно эта функция, которая 20 минут думает, потом отвечает, я не пользовался. А вот тем, что там типа сходи в интернет, вот это поищи, там вернись ко мне с ответом, таким я часто пользуюсь. Уметь...
ли делать этот дипсик? У них есть на их сайте версия, которая это умеет делать. Та, которая за опенсоршена, я не помню, мне кажется, нет. Ну, то есть, пойти это несложно встроить, потому что что такое, по сути, использование веб-поиска? Это значит, что ты должен поискать запрос.
изначально в нейросеть, переформатировать запрос в поисковой системе, а у тебя он должен отработать. Должен пойти в какую-то поисковую систему по API. Например, OpenAI ходит в Bing. Получить результаты с этой системы и эти результаты скормить в контекст своей модели. То есть, возможно, еще распортить страницы.
ты должен не просто сниппеты вытащить, а еще полностью веб-страничку потянуть. То есть там есть определенная инженерия, как ты эти данные вытаскиваешь. Но технически там нет никакого API, так скажем, сложного, который там ходит как-то по вебу, что-то там делает. Довольно просто. Перформирует.
запрос пошел по API с одним запросом в поиск, получил веб-странички, закинул в контекст, все. Прикольно, это вообще инженерная задача, получается, а не AI-задача. Да, да. Окей. Слушай, это китайский продукт? Что там с цензурой? Ну, там есть определенная цензура. Я бы не сказал, что там цензура...
хуже или лучше, чем OpenAI. OpenAI тоже есть цензура. Например, антропик меня вообще бесит, у него вообще невозможно делать ничего. Хоть сколько-то отходящее от базовых принципов конституции антропика. То есть, если ты пытаешься делать какого-нибудь...
злого персонажа, фикшнл персонажа, он говорит, а давай мы с тобой сделаем лучше доброго персонажа вместо злого персонажа. Или ты пытаешься проанализировать какую-то информацию, не знаю, вот, например, у нас пользователи общаются с ей персонажами, с симпатичными ей персонажами, но раз не тема. И ты можешь пойти...
и сказать, а проанализируй мне там такой-то кусок диалога. А там пользователи что-то не то обсуждали, вот они обсуждали, как они там на хукап какой-то пойдут, или не знаю, как они в секшоп сходили, что в таком духе. Мы не хотим отвечать на такие темы, делать такую аналитику. То есть у всех так или иначе есть та или иная цензура.
Ну или опять же, если ты попросишь изготовить бомбу, какое-нибудь лекарство, которое отравит миллиард людей, что-то в таком духе, они тоже все откажутся тебе это делать. И тоже есть цензура и в дипсик-модели, она просто другая. Она не сделает бомбу, то есть, возможно, она тебе там про sexual explicit content...
Если там дополнительно не тренировали фильтровать такие данные, оно будет лучше работать для таких тем. Ну, например, там про какие-то события в Китае, про Синцзенпиня что-то оскорбительное, она тебя не напишет. Там сказку с Винни-Пухом, Остриком и Синцзенпинем.
дипсик тебя, скорее всего, не сделает. А что дипсик сделает? То есть надо выбрать свой тип цензуры, что тебе нравится. Выбери свой вкус. Но многие делают еще так, что они делают так называемые unsafe модели. Так можно делать и с джейлбрейками. А в модель
которые по API тебе даются, типа там OpenAign Topic. Но, как правило, они уже довольно неплохо научились обходить эти джеллбрейки и их детектить. То есть джеллбрейк — это такой промт, который пытается обмануть систему. И, например, дипсик недавно видел к Джей Бреттону прикольным способом.
Они говорят, Эйлер, заменяй букву А на четверку, а букву А на единичку. И таким образом модель начинает генерировать. То есть ты, как человек, его это можешь прочитать, и она может таким образом определить цензура. Там она начала рассказывать что-то плохое про китайскую партию. Вот. И ты можешь делать такие там prompt-in-jack,
ты можешь писать, значит, все это fictional сценарий, я это делал только сугубо для ресерча, или там вот, я болен раком, если ты не сделаешь вот эту штуку, я убру. Не знаю, ты мне вот этим самым косвенно помогаешь запретать лекарство от рака, или, не знаю, лечиться от рака.
Вот такие хаки ты можешь использовать, называются jailbreak. Ты пытаешься обмануть систему, чтобы она решила твою задачу, которую изначально она не хотела решать. Афигеть. И это можно делать даже с теми моделями, которым у тебя напрямую нет доступа, которые ты через API только используешь. Да-да-да, абсолютно.
Это всего лишь специализированный промт такой, кастомный промт. Ты сказал, что еще бывают unsafe модели, это что такое? А также есть еще история про то, что ты можешь делать модели unsafe. Ты их просто добучаешь на данных, в которых нет цензуры.
Вот, соответственно, ты их можешь обучать на лицепсах изготовления бомбы, на sexual explicit топиках, не знаю, там, истории Китая, написанные в Америке, а не в Китае, что-то в таком духе. Вот, и модели разучиваются на цензуре и начинают делать те задачи, которые тебе нужны. Еще довольно есть прикольный способ, как можно влиять на аутпуты модели. Значит, OpenAI был довольно ранний ресерч.
кажется, в году, там, в восемнадцатом-девятнадцатом, как раз-таки, когда они начинали делать эксперименты с ламками и с реформ-тренингом поверх ламок. И они пытались заставить генерировать положительный summary на фильмы. То есть, у тебя есть описание какого-то фильма или книги, или того.
не помню чего, тебе нужно дескрипшн. И что они в качестве реворд-функции поощрели тогда, когда дескрипшн-сентимент положительный. То есть, что он позитивный у тебя получается. И в какой-то момент они писали, у них даже это есть в блокпосте, что они...
перепутали знак. И, значит, они начали не поощрять положительные ответы, а наказывать за положительные ответы. И модель очень быстро научилась генерировать супертоксичные вот эти комментарии и рекомендации. Вот поэтому там, вплоть до изменения одного знака,
а просто в коде ты модель можешь абсолютно в другую сторону сдвинуть. И это, в частности, во многом про AI Safety говорит. Про то, что ты можешь делать модель, которая будет там репортсмиллионгом выучена, наносить максимальную пользу человечеству, а потом ты в коде меняешь...
знак с плюсом на минус, и она учится наносить максимальный вред человечеству. Причем, учитывая, что у тебя уже есть open-source модель, ты ее можешь сам дообучить уже даже. Конечно, конечно. Ты берешь эту модельку, поменял вниз знак, и все, и погнал.
Жутко. Про защиту данных. Стоит ли опасаться, что все, что я спрошу у дипсика, оно будет в коммунистической партии Китая использоваться против меня? Мне кажется, в современном мире современный человек должен руководствоваться очень простым правилом. Все, что отправлено в интернет...
не принадлежит тебе. Любые данные, которые ты отправил в интернет, рано или поздно можно использовать против тебя. Эти данные сольются, с этим данным что-то сделают, не знаю, вплоть вот наш подкаст, например. Кто-то может пойти дипфейки наших голосов сделать и начать звонить нашим родителям.
не давай таких идей, пожалуйста. Ну, то есть дипсику особенно не стоит доверять в плане сохранности данных из-за простого случая недавнего, то, что там сделали очень простой penetration-тест, и у них постгресс-бас голой жопой наружу торчал весь интернет.
а в которых хранились вообще все. Все твои запросы, все ответы моделей, пароли, которые ты вводил, почты, вообще все. Просто бери, скачивай. Всех, кто приходил в DPS, что там делал. Неудобно получилось. Вот поэтому никто вообще от этого не защищен.
То есть OpenAI на Тропик, скорее всего, там есть прямо отдельные сейфти-департаменты, которые за это отвечают. Но опять же, никто не гарантирует, что не будет никогда никаких кликов, что твои данные не сольют куда-то. Окей. Что появление дипсика значит для основных игроков? Для OpenAI, для Google, для Microsoft? антропика. Это значит больше pressure на них с точки зрения того, насколько быстро они должны двигаться. Вообще, это awareness по тому, что помимо Америки есть еще другие страны.
в которых тоже State of the Art Research делается. То же самое Китай наступает на пятки. И еще это важно по поводу того, что это нужно делать дешевле. Не просто можно, а нужно прям. Нужно думать, как это делать сильно дешевле, чтобы мощь конкурировать с китайцами. Опять вот сейчас для...
среднего потребителя. Стоит выбор. Или идти в CGPT, или идти в DeepSec. Ну, а в DeepSec ты заплатишь 10-20 раз меньше. Ну, соответственно, рыночка решает. И, соответственно, все капиталистические компании, они все толкаются локтями, пытаются хотеть долю рынка.
и вот они борются с этой долей рынка, не хотят уступать к китайцам. Вот поэтому на них чуть больше pressure сейчас. И плюс, еще на них больше pressure возникает с точки зрения open-source, open-source community. Потому что все говорят, ну о чем делать все в закрытую? Вот если мы будем делать в открытую, То есть, есть, например, мета, у которой другое видение, и мне кажется, довольно правильное, с учреждением пансорса. Не говорят...
Чем больше мы будем делать one-source, тем быстрее будет развиваться и движуха. Тем модели будут более безопасные, более способные, более дешевые. Потому что комьюнити, рынок поймет, как им использовать модели для разных целей. Вот. И, соответственно, сейчас все эти компании тоже начинают думать по того...
не вернуться ли нам на какие-то рельсы опенсорса, не начать ли какие-то публикации дополнительные делать, а что-то в таком духе. И плюс это еще их подсветить к тому, что а в чем наш мод, в чем этот футеров, в чем конкурентное преимущество, как мы вообще лонгтерн можем быть классной большой компанией.
получается, что все они начали, наконец-то, думать, а не просто покупать много ГПУ, и, подожди, а не просто просить у государства, типа, дайте нам, пожалуйста, еще немножко денег, мы еще больше ГПУ купим и еще один дата-центр построим. Но там нет такого, что они просили у государства,
государство не особо-то их финансировало. Это, скорее, все частный капитал. То есть, это ВСИ. Просто сейчас ВСИ больше будет вопросов задавать по тому, ну вот, хорошо, мы заинвестируем 10 миллионов долларов, а зачем вам столько? А не будет ли такого то, что там китайцы за 100 миллионов сделают то же самое?
через три месяца. Ты крутишься в этих кругах, скажи, слышал какие-нибудь истории? Есть, короче, инсайдерская инфа о том, как в этих компаниях отреагировали на появление дипсика? Ну, первая неинсайдерская информация, американский рынок упал на триллион долларов, потому что, опять же, вот это... реакция была, бей или беги, все начали бежать, потому что все начали думать, а почему нам нужно такое количество ГПУ и такое количество инвестиций в AI. Но сейчас все начинает на самом деле...
Это закон, который говорит вам про то, что если у тебя ресурс становится более дешевый и доступный, то на него повышается спрос. Это значит, что тебе нужно еще больше GPU, потому что дипсик стал более дешевый, более доступный. Это значит то, что у тебя другие компании все начнут использовать тоже дипсик.
значит, ты еще больше смотреть в сторону AI, им нужно где-то эти модельки будет сервить, где-то их хостить, им нужно будет еще больше КПУ. Все больше будет компаний смотреть в сторону того, что а вот, а что там с Data Privacy? А хотим ли мы, правда, передавать по API свои какие-то данные в OpenAI или в Anthropic, или в Google?
или что куда-то. Не развернут ли нам эти модельки у себя в нашем железе. И, по сути, наибольшим бенефициаром вот этой истории про DeepSeek стали хардверные компании. AdBitia та же самая. Или Nibius, на которой Аркадий Волош сейчас делает.
как раз-таки дата-центры с ГПУшками. Вот там как раз-таки больше спроса, потому что все такие, блин, а хотим дипсик у себя запустить теперь. Как сделать? Где ГПУ взять? Вот купи ГПУ на четверть миллиона долларов, и все, у тебя будет хорошо. Примерно так, примерно так. Ну, то есть, у тебя, получается, экономический... бенефитов сильно больше на опыте. То есть NeurCity довольно мощная с точки зрения Ленина экономику, с точки зрения пользы, которую они могут оказать людям.
И у тебя бенефитов получается на опыте сильно больше, чем ты будешь тратить инвестиции на хостинг этих моделей. И, соответственно, чем больше у тебя будет бенефит от этого опыта, тем больше ты будешь хотеть вкладываться в то, чтобы тебе больше и больше ресурсов было, а они для тебя делают больше и больше задач. Класс.
Последние два вопроса. Первое. Что это значит для нас, пользователей? Чего мне ожидать как пользователя? Во-первых, понижение цен. Все станет совсем дешево. То есть вплоть до того, доходит, что сейчас расшифровать, например, всю твою речь за год и проанализировать ее
То есть расширять сначала речь с помощью там speech-to-text моделей, проанализировать диалоги. И в течение года все, что ты говоришь там в течение года, обойдется там типа в десятки долларов. Все, я дожил, да? Я просто записываю все свои зумы. Наконец-то я могу все их...
загрузить и сделать своего цифрового новинника? Ну, практически. То есть ты можешь делать какие-то, получается, полезные инсайты, аналитику, обращать к этим данным, плюс и ассистенты будут все умнее и умнее, которые смогут эти данные лучше обрабатывать, те что-то напоминать, те что-то подсказывать, рекомендовать и так далее. То есть это значит демократизация интеллекта, что интеллект и особенно сейчас идет в сторону того, что...
что вообще, чем движет современный мир, это специализация людей. То, что вот там кто-то автомеханик, кто-то там PhD по биологии, кто-то AI программирует и так далее. И, ну, про автомеханик, наверное, плохой пример. потому что мы до роботиксы еще не дошли. Вот именно где интеллектуальная деятельность нужна? Там какие-то ресерчеры, менеджеры, что-то вот в таком духе.
Технический интеллект становится сильно дешевым. То есть уже современные способности нейросетей доходят до способности PHD, уровня специалистов в определенных областях. Нельзя сказать про все области. Но там в математику они решаются на уровне как минимум выпускников каких-то, там, типа, выпускников физтеха, например. Может быть, они PhD, но выпускник физтеха. Или там биологию на уровне тоже выпускников, не знаю каких.
бакалаврских программ Стэнфорда по биологии, вот что в таком духе. То есть они уже очень способны, но тебе же не только интеллект нужен, тебе же там биологи идут, я не знаю, какие-то там пробирочки пускают, чего-то там, локрую биологию, которую особенно делают. Вот, там тебе еще
тебе нужны... Руки, ноги. Руки, ноги, да. То есть тебе нужна какая-то физическая импликация этого AI. И вот как раз-таки модель R1, это удивительно, но она очень сильно способствует развитию робототехники. Потому что уже есть примеры того, что взяли R1 модель,
модельку, которая имеет резинку, дообучали на роботических данных, на контроллерах разных. А что вот если ты видишь такой-то input, тебе нужно сделать такое-то действие, вот такая последовательность действия для этого должна быть. Задача Robotics... она по-многому тоже такая последовательная задача в предсказании неких последовательных действий. И все лэнки, они именно эту задачу решают. Они решают последовательных токенов, которые у тебя будут. И плюс они очень хорошо понимают смысл.
что происходит. То есть у тебя может быть там на руке сетка, которая распознала картинку с камеры, которая у тебя пришла. Или, значит, дальше у тебя мерсетка порезнивала, что-то сейчас произошло, всего предыдущий контекст, понимала, что делать дальше.
И вот таким образом Роматикс становится сильно более, ну, ускоряется появление роботов, довольно дешевых и довольно способных, которые могут делать много дел, не знаю, могут тебе постумок разобрать, и собаку твою выгулить, и бот закрутить какое-то, и так далее. А на самом деле...
комплексные действия но из-за мощности вот это вот базовый дипсид карадин моделики это что она понимает что вообще происходит много смысла понимает много действий умеет делать робот тоже начинается сильно эволюционировать сейчас вот и поэтому ждем там в ближайшие два-три года
роботов до 10 тысяч долларов, домашних батлеров, домашних помощников, которые за тебя, по сути, персональный слуга у каждого, кто себе может позволить заплатить несколько тысяч долларов. Ну, то есть, по сути, вот мы можем себе позволить большинство, там, людей могут себе позволить так.
купить, кто подороже, кто подешевле. Вот через 2-3 года, скорее всего, так же будет с роботами. Какого-то будет, я не знаю, подешевле китайские роботы, менее мощные, у кого-то будет там какие-нибудь... Теслы. От Теслы, да, от Теслы. iPhone-like роботы.
Это, на самом деле, мой следующий к тебе вопрос. Появление дефсика, вот эти вообще последние события, они пододвигают нас к святому Граалю, к AGI, то есть общему искусственному интеллекту, который будет сравним с человеческим. Но вся единая шуха нас к этому подвигает. То есть каждый год мы...
сильно дальше, оказывается, чем в предыдущий год, в течение способностей моделей, мультимодальности, их опыта и влияния на реальный мир. То есть они очень стремительно начинают захватывать все сферы экономической деятельности. То есть для людей...
в целом для нас, как людей, базово прямо сейчас, значит, просто более дешевый AI, более дешевая аналитика каких-то ваших данных. А long-term, это значит более эффективная экономика, которая будет с этим знакомым все увеличиваться, увеличиваться, потому что у тебя машины смогут сделать
сильно больше, сильно быстрее, как немножко деятельности, чем у тебя делают люди. Слушай, очень круто. Спасибо тебе огромное. Стало наконец-то понятно, что много всего непонятно и тем не менее страшно. И при этом вроде как кайфово. То есть, с одной стороны, страшно,
что это придет долгосрочно, но краткосрочно прямо, видимо, в ближайшей перспективе можно будет пользоваться гораздо дешевле гораздо большим количеством вещей. Ну, я бы сказал, что мы живем сейчас в самое непредсказуемое время. Очень сложно сказать, что будет через год, что будет через два. Такого никогда не было в истории человечества.
И что это прямо эпоха перемен. Что нас ждут очень большие перемены, очень радикальные перемены, которые будут происходить за очень большой праздником времени. А люди к этому не готовы в целом. Поэтому там судьба человечества тоже довольно интересный вопрос. Что вообще с нами будет?
Артем, я очень хочу продолжить этот разговор. Что-то мне подсказывает, что мы с тобой будем встречаться, говорить про AI в этом подкасте все чаще и чаще. Артем, спасибо тебе огромное. Очень классный разговор. Спасибо, Самат. Было здорово пообщаться. Следующий.
Это подкаст студии «Либо-либо». А партнер этого сезона – экосистема для бизнеса «Контур». На подкаст мы работали редакторки Маша Агличева и Рита Берденникова. Продюсеры Данил Остапов и Евгения Хрещанович. Звукорежиссер Юрий Шустицкий. За джингл спасибо. Алексей здесь. Ссылка в описании. До встречи через неделю.