Last active
July 14, 2024 18:54
-
-
Save butschster/023b74247335dcdbcc0208eb0caf020c to your computer and use it in GitHub Desktop.
AIA Podcast #37
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
00:00:28 - Обсуждение Rabbit R1 | |
Rabbit R1 — абсолютно бесполезная вещь за 100 долларов, но очень красивая и эстетически приятная. Зарядка устройства сопровождается уютной анимацией спящего зайца. | |
00:03:37 - Впечатления о поездке в Турцию | |
Поездка в Турцию была замечательной, но участники слабо помнят, что обсуждали. | |
00:04:05 - Демонстрация устройства Рэббит | |
Леша показывает в камеру включающийся гаджет Рэббит, комментируя, что у него красивая графика. | |
00:04:48 - Впечатления от поездки в Турцию | |
Посетили Турцию, попали на футбольный матч, где Турция выиграла. Праздновали вместе с местными жителями. | |
00:05:39 - Размышления о творческих планах | |
Обсуждали запись музыкального клипа и кассет. Планируют записать свои песни. | |
00:06:30 - Начало подкаста и формат | |
Обсуждение формата подкаста, порядок действий и шутки о прошлом опыте. | |
00:07:53 - Введение и приветствие участников | |
00:08:25 - Обсуждение тем подкаста, включая OpenAI и Google | |
00:09:10 - Представление партнера подкаста NGX | |
00:09:26 - Описание курсов от NGX, связанных с AI | |
00:10:07 - Новые образовательные программы для команд от NGX | |
NGX предлагает образовательные программы для команд: GEN-AI Adoption Program и Navigation Team Dynamics, которые направлены на обучение с использованием AI и улучшение командной динамики. | |
00:12:34 - Чат Айаподкаста в Телеграме | |
Слушатели могут присоединиться к чату Айаподкаста в Телеграме для обсуждения курсов и участия в стримах. | |
00:14:07 - Обсуждение формата подкаста | |
00:14:45 - Взлом OpenAI | |
00:15:45 - Анализ последствий взлома | |
00:16:01 - Взлом OpenAI и реакция на него | |
Компания OpenAI заявила о взломе, но не предоставила никаких подробностей, вызывая удивление и вопросы о безопасности и прозрачности. | |
00:17:09 - Доверие к OpenAI | |
Обсуждение доверия к OpenAI и попытки разобраться, почему компания не раскрывает больше информации о взломе. | |
00:17:39 - Уволенный сотрудник и внутренняя ситуация | |
История о том, как уволенный сотрудник компании предупреждал о взломе и его последствиях, а также роль высокопоставленных лиц в управлении кризисом. | |
00:18:45 - Взлом OpenAI и утечка данных | |
Появились слухи о взломе OpenAI, который мог быть сфабрикован маркетологами компании. Несмотря на это, обсуждается, что утечка данных все же могла произойти, но ее замолчало правительство из-за национальной значимости OpenAI. | |
00:20:34 - Влияние технологических компаний на политику | |
Компании, такие как OpenAI, могут начать определять политику стран. Обсуждается, как такие компании приобретают влияние и роль этики в этом процессе. | |
00:20:36 - Новый член совета директоров OpenAI | |
По слухам, членом совета директоров OpenAI мог стать человек из Apple, но антимонопольные органы США воспротивились из-за возможного конфликта интересов. | |
00:21:58 - Давление на Microsoft и OpenAI | |
00:23:00 - Сделка между OpenAI и Time | |
00:23:54 - Сэм Альтман и его роскошная машина | |
00:24:45 - Обсуждение лимитированной серии автомобилей Regera, их стоимость и популярность среди миллиардеров. | |
00:25:27 - Разговор о реакции Сэма Альтмана на съемку на улице, его статус суперзвезды. | |
00:26:02 - Обсуждение увольнения Сэма Альтмана из совета директоров и возвращения денег Microsoft. | |
00:26:10 - Сравнение Сэма Альтмана с персонажем из сериала "Академия Амбрелла". | |
00:26:45 - Переход к обсуждению дохода OpenAI, оценка в 3-4 миллиарда долларов в год. | |
00:27:12 - По оценкам OpenAI зарабатывает 3-4 миллиарда в год, основную часть доходов (55%) генерирует подписка на GPT+, 21% - ChatGPT Enterprise, и только 8% - API. | |
00:30:06 - Обсуждение обновлений OpenAI и Stability.ai | |
Компания Stability.ai наняла нового директора и ввела лицензионные сборы для бизнесов с выручкой более миллиона долларов. Это может помочь компании выжить, несмотря на их нестабильность. | |
00:32:27 - Пузырь вокруг искусственного интеллекта | |
В конце будет статья о большом пузыре вокруг ИИ, показывающая, что не все так хорошо у OpenAI и других компаний. | |
00:32:43 - OpenAI и Google DeepMind | |
OpenAI и другие крупные игроки набирают пользовательскую базу, в то время как Stability AI пытается выйти в ноль. Google DeepMind представили новую систему навигации для роботов, которая показывает хорошие результаты. | |
00:34:43 - Хром с G-mini Nano | |
Google начал тестирование новой версии Chrome с встроенной G-mini Nano, которая работает локально и показывает хорошие результаты, несмотря на компактные размеры модели. | |
00:35:50 - Локальные языковые модели | |
Местные ЛМ могут отвечать на вопросы, писать код и работать офлайн, но их потенциальное использование пока неясно. | |
00:37:42 - Планы Amazon в AI | |
Amazon давно в ИИ-гонке с Bedrock, но теперь они разрабатывают собственную мультимодальную модель Metis. | |
00:38:46 - Обзор новых мультизадачных моделей от Amazon | |
Amazon разрабатывает мультимодальные модели, конкурирующие с GPZ 4.0, в первую очередь для AWS. У Amazon достаточно мощностей для экспериментов, и они стремятся избежать переобучения существующих open-source моделей. | |
00:39:42 - Покупка AMD лаборатории ИИ в Европе | |
AMD приобрела крупнейшую в Европе лабораторию искусственного интеллекта за 665 млн долларов. Это шаг, направленный на укрепление их позиций на рынке AI, возможно, с целью разработки новых архитектур процессоров, заточенных под AI. | |
00:42:21 - Обзор AI на конференции Samsung | |
На конференции Samsung представили нового помощника Galaxy AI, который переводит в реальном времени, рисует и редактирует фотографии с помощью AI. Функции кажутся более совершенными, чем у Apple, включая живой переводчик и возможность добавления объектов на фотографиях. | |
00:45:22 - Обсуждение умных колец Galaxy и Auar Ring | |
Galaxy Ring составило конкуренцию Auar Ring с аналогичными функциями мониторинга здоровья. Galaxy Ring может обнаруживать храп и отслеживать уровень сахара в крови, также было обсуждение стартапов и технологий измерения здоровья. | |
00:48:20 - Обсуждение конференции и Сидни Суини, попытки интерактива и кринж. | |
00:49:26 - ИИ анализирует физические данные, обсуждение информации о здоровье в телефонах. | |
00:52:37 - Google Pixel и инфраструктурные войны | |
Обсуждение инфраструктурных войн между технологическими компаниями и предпочтения в использовании Google Pixel. | |
00:52:41 - Илон Маск и Грок 2 | |
Илон Маск анонсировал выход новой версии Грок 2, которую тренировали на мощной инфраструктуре, и планы на разработку Грок 3. | |
00:53:58 - Сервис от создателя Quora | |
Рассказ о новом сервисе от создателя Quora, который позволяет создавать чат-ботов на базе различных LLM-интерфейсов с поддержкой HTML, CSS, JavaScript и возможностью добавления Python. | |
00:54:42 - POE и его возможности | |
POE позволяет редактировать части кода без перегенерации и имеет большое контекстное окно для вывода. Пример использования - написание кода для шахмат, который затем был успешно объединен для корректной работы. | |
00:57:02 - Функционал и новые возможности Антропика | |
Антропик добавил возможность публиковать и расшаривать артефакты, аналогичную GPTIS. Важно наличие удобного каталога с рекомендациями и поиском. | |
00:57:58 - Взаимодействие По с GPT-4 | |
Обновления у По включали возможность шаринга, и приложение получило GPT-4 не в день релиза, а в час его выхода. | |
00:59:03 - Конференция World Artificial Intelligence Conference в Китае | |
На конференции была представлена модель Sense Nova 5.5, способная к мультимодальной обработке аудио, текста и видео, конкурирующая с RG504O. | |
01:00:21 - Университет Карнеги Мэлон и модель Xeus | |
Университет Карнеги Мэлон выпустил аудиомодель Xeus, которая переводит речь с английского на русский. | |
01:01:10 - Новая LLM для камушков | |
01:01:10 - Новая LLM обучена на миллионах часов аудиофайлов и поддерживает 4000 языков. Компании Atimatic запустила LLM под названием Simicong, заточенную под работу с полупроводниками. | |
01:03:04 - Релиз MoshiChat | |
01:03:04 - Французская лаборатория Kuaytay Labs выпустила сервис MoshiChat, аналог GPC 4.0, который OpenAI ещё не релизнули. | |
01:04:15 - Обзор сервиса с высокой скоростью ответа | |
Высокая скорость ответа сервиса Moshi, который работает на основе маленькой модели Helium 7b, делает его идеальным для стриминга и настройки температуры для генерации аудио. | |
01:05:31 - Новый стартап в сфере генерации видео | |
Стартап "Одиссея" разрабатывает систему, которая генерирует видео на основе текста, предлагая гибкие возможности изменения объектов и сцен. | |
01:07:05 - Художники и технологии Odyssey | |
Студия Odyssey использует данные от компьютеров-виженов самоуправляемых автомобилей для создания 3D-сцен. Среди их инвесторов значатся Google Ventures, Y-комбинатор и специалисты из DeepMind. | |
01:08:01 - Доступ к Gen3 Alpha и стоимость генерации | |
Gen3 Alpha открыл доступ для всех, но генерация дорогая, и необходимо несколько попыток для получения хорошего результата. Пользователи отмечают, что удачная генерация получается приблизительно с сороковой попытки. | |
01:09:21 - Релиз системы Клинк | |
Китайский сервис Клинк, который генерирует видео из текста, также был выпущен. Однако, для его использования нужно знать китайский язык или использовать переводчики. | |
01:09:46 - Проблемы генеративного видео с гимнастами | |
Нейросети плохо справляются с генерацией гимнастов и спортсменов, создавая смешные искаженные изображения, где конечности перемешиваются. | |
01:11:06 - Прогресс в технологиях генеративного видео | |
Обсуждение быстрого прогресса технологий, начиная с генерации смешных изображений вроде пиццы с лицом до более качественных видео. | |
01:11:50 - Фигма и ее отключенный функционал | |
Фигма временно отключила функцию автоматического создания интерфейсов из-за того, что она копировала дизайн приложения Apple для погоды. | |
01:12:37 - Похожие генерации и отключение функционала | |
Пользователи заметили, что многие генерации в Фигма похожи на суперпопулярные сервисы, вызвав слухи, что Фигма обучала модель на данных пользователей без их согласия, что привело к отключению функционала. | |
01:13:36 - Обновление Perplexity и интеграция с Wolfram Alpha | |
Perplexity обновила функционал платной подписки ProSearch, добавив новые функции, такие как обработка сложных запросов, улучшенные рассуждения и интеграция с Wolfram Alpha для расчетов и построения графиков. | |
01:14:33 - Инструмент Voice Isolator от Eleven Labs | |
Eleven Labs представила инструмент Voice Isolator, который удаляет шумы из записи голоса, демонстрируя его эффективность с помощью забавного примера с промышленным пылесосом. | |
01:16:00 - Тренировка агентов в Minecraft | |
В Minecraft начали тренировать агентов, что открывает новые возможности и перспективы для использования игры в обучающих и исследовательских целях. | |
01:16:06 - Обучение агентов в Minecraft | |
Майнкрафт предоставляет упрощенную и контролируемую среду с хорошей физикой и кубической системой, что позволяет эффективно тренировать агентов, таких как Omni Jarvis. | |
01:18:26 - Андрэй Карпаты и LLM OS | |
Андрей Карпаты выступил на церемонии награждения и представил концепцию операционной системы на основе больших языковых моделей, сравнивая их с процессорами, которые смогут выполнять различные задачи. | |
01:19:24 - Будущее операционных систем на базе LLM | |
Обсуждение концепции операционных систем на базе Large Language Models (LLM), которые могут генерировать контент и потенциально создавать бесконечные сериалы. | |
01:20:24 - Разработка робота Human Plus | |
Исследователи из Стэнфорда разработали open-source робота Human Plus, который может обучаться движению через наблюдение и не вызывает эффекта зловещей долины. | |
01:22:05 - Чтение мыслей обезьян с помощью нейрошунтов | |
Ученые из Нидерландов с использованием нейрошунтов смогли предсказывать, что видит обезьяна, что является важным шагом в развитии нейротехнологий. | |
01:22:45 - Обработка изображений с помощью нейронных сетей | |
Эксперименты с нейронными сетями добиваются высоких результатов в воспроизведении изображений с высоким качеством, несмотря на некоторые недостатки. Результаты напоминают кошмары из снов, но показывают перспективы для будущих исследований. | |
01:23:59 - Прогресс в нейротехнологиях и применение шунтов | |
Обсуждение использования шунтов на обезьянах и возможного применения на людях компанией Neuralink. Примечается продвижение в создании телепатических способностей и управлении роботами. | |
01:25:03 - Партнерство OpenAI с Национальной лабораторией Лос-Аламоса | |
OpenAI сотрудничает с Лос-Аламосской национальной лабораторией для использования GPT-4.0 в биологических исследованиях. Модель будет помогать в культивировании клеток и других научных задачах, выступая в роли интеллектуального лаборанта. | |
01:26:05 - Лаборатория Лос-Альмас и GPT-4 | |
Лаборатория Лос-Альмас, известная Манхэттенским проектом, планирует использовать GPT-4 в биологических исследованиях и мирных целях. Это вызывает опасения, учитывая их прошлое. | |
01:27:44 - Кандидат в мэры и ИИ-система | |
Кандидат в мэры Виктор Миллер заявил, что его решения будет принимать ИИ-система на основе GPT-4, что вызвало много вопросов и критики. | |
01:29:30 - Виктор и роль ИИ в политике | |
Виктор заявил, что ИИ умнее большинства политиков и предложил, чтобы ИИ принимал важные решения за него, хотя и понимал, что нынешняя версия GPT не готова к таким задачам. | |
01:31:05 - Гонка США и Китая в сфере ИИ | |
США и Китай стремятся создать системы ИИ, которые могут принимать решения быстрее людей, но для этого нужны компетентные специалисты, способные настроить эти системы. | |
01:32:03 - Этика использования ИИ | |
Обсуждается, насколько этично позволить ИИ принимать решения и что в конечном итоге ответственность все равно будет на человеке, который контролирует ИИ. | |
01:32:23 - Эксперимент с ИИ-главой деревни | |
Идея проведения эксперимента, где ИИ становится городским старостой небольшой деревни, чтобы оценить его эффективность и влияние на общество. | |
01:34:06 - Минобороны Японии опубликовало политику по использованию ИИ в военных целях, включая обнаружение целей, сбор разведданных и управление беспилотными системами, с финальными решениями от человека. Япония подчеркивает необходимость таких мер, учитывая аналогичные усилия со стороны США и Китая. | |
01:37:45 - Обсуждение военного использования технологий | |
Участники обсуждают, где могут быть использованы новые технологии, намекают на систему обороны, и выражают недовольство гонкой вооружений. | |
01:38:42 - Переход к сервисам и ссылкам | |
Рассказ о различных сервисах и инструментах, упомянутых на протяжении выпуска, и благодарность коллеге за помощь с записью видео в аэропорту. | |
01:39:33 - Технические проблемы и решение | |
Описание проблемы с записью видео в аэропорту и использование различных приложений для обработки звука и видео на телефоне, включая сложности с Adobe Audition и Enhanced Speech. | |
01:40:58 - Обсуждение Adobe Enhance и AUPHONIC | |
Adobe Enhance добавляет английский акцент к русской речи. Паша порекомендовал AUPHONIC для обработки звука, который дал отличные результаты. | |
01:43:13 - Введение к обсуждению пузыря | |
Разговор о том, что пузырь является идеальной формой 3D-объекта. Обсуждение новости, связанной с пузырем вокруг AI. | |
01:43:56 - Стагнация в AI-индустрии и её последствия | |
Sequoia Capital подсчитала, что дата-центры тратят больше на оборудование, чем зарабатывают. OpenAI вносит значительный вклад в этот пузырь, и есть вероятность его разрыва. | |
01:47:03 - Обсуждение EА и финансовых рисков для NVIDIA | |
Сейчас EА может заменить некоторых людей, что очевидно. Однако кредитные риски и возможные финансовые сокращения могут привести к застою и отказу от новых закупок. | |
01:48:14 - Завышенные акции и возможные последствия для NVIDIA | |
В случае падения акций NVIDIA компании придется сократить закупки и остановить развитие. Это может привести к застою и отказу от новых проектов. | |
01:49:05 - Риски разработки специализированных чипов для LLM | |
Сейчас компании не спешат разрабатывать специализированные чипы для LLM из-за нестабильности рынка. Пузырь вокруг LLM может лопнуть, и тогда эти чипы будут никому не нужны. | |
01:49:43 - Обсуждение майнинга и криптовалют | |
01:50:19 - Возможный новый криптобум | |
01:50:45 - Переход к обсуждению пузыря вокруг AI | |
01:51:21 - Призыв к зрителям оставить комментарии | |
01:51:30 - Переход к последней новости о компании Xiaomi | |
01:52:46 - Лэй Цзунь и новый завод Xiaomi | |
Лэй Цзунь объявил о новом заводе Xiaomi в Чанпине, где будут производить смартфоны. Завод полностью автономный и может производить один смартфон в секунду. | |
01:54:30 - Этические вопросы автоматизации | |
Обсуждение этических вопросов, связанных с автоматизацией и потерей рабочих мест. Рассматривается будущее, где роботы могут сами себя модифицировать. | |
01:55:26 - Автономные фабрики и роботы | |
Фабрики Nvidia теперь полностью автоматизированы и работают без людей, производя смартфоны и другие технологии. В будущем роботы смогут сами себя чинить, что сделает человеческое участие ненужным. | |
01:58:00 - Автономные заводы и киберпанк | |
Автономные заводы уже производят оборудование без участия людей, что вызывает чувство фантастики и киберпанка. Это может привести к потере рабочих мест, но также к увеличению количества довольных людей с телефонами. | |
01:59:46 - Заключение и призыв к действию | |
Завершается обсуждение с предложением слушателям подумать, протестировать и оставить комментарии. Призыв подписаться и поддержать подкаст, чтобы он продолжал выходить в том же формате и помогал людям развиваться в ИАЭ. | |
Текст не содержит значимого содержания, поэтому исключен из резюме. |
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
0 | |
00:00:01,000 --> 00:00:04,000 | |
Блин, а песню-то мы какую петь сегодня будем? | |
1 | |
00:00:05,000 --> 00:00:07,000 | |
— Ты, кстати, поешь. — Не знаю. | |
2 | |
00:00:07,000 --> 00:00:09,000 | |
— Сегодня ты поешь. — Моя очередь. | |
3 | |
00:00:09,000 --> 00:00:11,000 | |
— Да-да. — Давай я ищу что-нибудь на Гугле. | |
4 | |
00:00:11,000 --> 00:00:12,000 | |
— На Гугле. | |
5 | |
00:00:13,000 --> 00:00:17,000 | |
А пока ты гуглишь, я покажу одну штучку, которая мне пришла. | |
6 | |
00:00:18,000 --> 00:00:20,000 | |
— Ой, неужели это яйкинг? | |
7 | |
00:00:21,000 --> 00:00:23,000 | |
— Нет, я яйкинг заказывал. | |
8 | |
00:00:23,000 --> 00:00:26,000 | |
Те, кто нас смотрит в записи, они увидят это. | |
9 | |
00:00:26,000 --> 00:00:28,000 | |
Те, кто нас слушают, я говорю словами. | |
10 | |
00:00:28,000 --> 00:00:32,000 | |
Мне пришла абсолютно бесполезная вещь под названием Rabbit R1. | |
11 | |
00:00:34,000 --> 00:00:35,000 | |
Почему бесполезная? | |
12 | |
00:00:35,000 --> 00:00:37,000 | |
— Может быть, ключи этих на обзорщике? | |
13 | |
00:00:37,000 --> 00:00:40,000 | |
— Ну да. Уже все сказали, что там просто приложение, | |
14 | |
00:00:40,000 --> 00:00:42,000 | |
которое можно скачать на достопе, поставить, | |
15 | |
00:00:42,000 --> 00:00:43,000 | |
все то же самое будет. | |
16 | |
00:00:43,000 --> 00:00:44,000 | |
Я вам скажу... | |
17 | |
00:00:44,000 --> 00:00:47,000 | |
А, еще и залмали ее, и уже вроде даже фикс сделали. | |
18 | |
00:00:47,000 --> 00:00:49,000 | |
Ребят, на странице есть CLM, | |
19 | |
00:00:49,000 --> 00:00:53,000 | |
на которой они пишут, как движется фикс этого бага. | |
20 | |
00:00:54,000 --> 00:00:55,000 | |
Там с ключами проблемы были. | |
21 | |
00:00:55,000 --> 00:00:56,000 | |
Я вам так скажу. | |
22 | |
00:00:56,000 --> 00:00:59,000 | |
Эта штука стоила, по-моему, 200 долларов. | |
23 | |
00:01:00,000 --> 00:01:03,000 | |
100 долларов они мне дали еще на 100 долларов Перплексисе бесплатно. | |
24 | |
00:01:03,000 --> 00:01:05,000 | |
То есть по факту она стоила 100 долларов. | |
25 | |
00:01:05,000 --> 00:01:07,000 | |
И я могу сказать, я ее еще не запускал. | |
26 | |
00:01:07,000 --> 00:01:09,000 | |
К сожалению, не было у меня времени. | |
27 | |
00:01:09,000 --> 00:01:10,000 | |
У меня вчера форс-мажор случился. | |
28 | |
00:01:10,000 --> 00:01:13,000 | |
Жена пальцы в блендер засунула. | |
29 | |
00:01:13,000 --> 00:01:14,000 | |
Сидели целую ночь. | |
30 | |
00:01:14,000 --> 00:01:16,000 | |
— Блин, это вообще жесть просто. | |
31 | |
00:01:16,000 --> 00:01:17,000 | |
— Ну такое бывает. | |
32 | |
00:01:17,000 --> 00:01:19,000 | |
Все обошлось, палец функциональный. | |
33 | |
00:01:19,000 --> 00:01:23,000 | |
Ходит теперь в бинте и не может на пистолете курок нажимать какое-то время. | |
34 | |
00:01:23,000 --> 00:01:24,000 | |
— Повезло тебе, в общем. | |
35 | |
00:01:25,000 --> 00:01:26,000 | |
— Но это я к чему. | |
36 | |
00:01:26,000 --> 00:01:29,000 | |
Не успел обозреть эту штуку, но я успел ее вот открыть, распаковать. | |
37 | |
00:01:29,000 --> 00:01:32,000 | |
Я вам скажу, что даже если она работает херово, | |
38 | |
00:01:32,000 --> 00:01:35,000 | |
Teenage Engineering сделал охеренно красивую вещь. | |
39 | |
00:01:35,000 --> 00:01:37,000 | |
Вот я ее в руках держу, и я кайфую. | |
40 | |
00:01:37,000 --> 00:01:39,000 | |
Если бы она просто была выключенным куском пластмассы, | |
41 | |
00:01:39,000 --> 00:01:43,000 | |
возможно, я бы даже все равно потратил 100 долларов, чтобы ее купить. | |
42 | |
00:01:43,000 --> 00:01:44,000 | |
Это красиво. | |
43 | |
00:01:44,000 --> 00:01:45,000 | |
Колесико, это кнопочка. | |
44 | |
00:01:45,000 --> 00:01:47,000 | |
— Как легко тебе раскрутить на бабке, Леша. | |
45 | |
00:01:47,000 --> 00:01:48,000 | |
— Ну реально красиво. | |
46 | |
00:01:48,000 --> 00:01:49,000 | |
Я его даже не запускал. | |
47 | |
00:01:49,000 --> 00:01:52,000 | |
Слушай, а даже давай запустить попробуем, если он заряжен. | |
48 | |
00:01:53,000 --> 00:01:54,000 | |
— Давай-давай. | |
49 | |
00:01:54,000 --> 00:01:57,000 | |
Будем опозревать Rabbit.R1 в прямом эфире. | |
50 | |
00:01:57,000 --> 00:01:59,000 | |
— А, сюда еще флешку надо вставить. | |
51 | |
00:01:59,000 --> 00:02:01,000 | |
Не флешку, а симку. | |
52 | |
00:02:01,000 --> 00:02:03,000 | |
— А без симки не запустится? | |
53 | |
00:02:03,000 --> 00:02:04,000 | |
— Запустится. | |
54 | |
00:02:04,000 --> 00:02:05,000 | |
Он, наверное, разряжен. | |
55 | |
00:02:05,000 --> 00:02:07,000 | |
Давай, я сейчас кабель включу. | |
56 | |
00:02:09,000 --> 00:02:11,000 | |
Ну, очень няшная штучка. | |
57 | |
00:02:11,000 --> 00:02:12,000 | |
Ну, прям выглядит. | |
58 | |
00:02:12,000 --> 00:02:13,000 | |
Вот Teenage Engineering — молодцы. | |
59 | |
00:02:13,000 --> 00:02:14,000 | |
О, он разряжен. | |
60 | |
00:02:14,000 --> 00:02:17,000 | |
И вот мне нарисовала картинка, что пошла зарядка. | |
61 | |
00:02:17,000 --> 00:02:19,000 | |
Приятно прям. | |
62 | |
00:02:19,000 --> 00:02:21,000 | |
— Там хомяк в колесе бегает. | |
63 | |
00:02:21,000 --> 00:02:22,000 | |
— Заяц. | |
64 | |
00:02:22,000 --> 00:02:23,000 | |
— Заяц в колесе бегает. | |
65 | |
00:02:23,000 --> 00:02:24,000 | |
— Спит. | |
66 | |
00:02:24,000 --> 00:02:25,000 | |
Не бегает, а спит в колесе. | |
67 | |
00:02:25,000 --> 00:02:26,000 | |
— А, он спит? | |
68 | |
00:02:26,000 --> 00:02:27,000 | |
— Да. | |
69 | |
00:02:27,000 --> 00:02:28,000 | |
— Ну, поздравляю. | |
70 | |
00:02:28,000 --> 00:02:30,000 | |
Чего с покупкой? | |
71 | |
00:02:31,000 --> 00:02:33,000 | |
— Ну, спасибо. | |
72 | |
00:02:33,000 --> 00:02:36,000 | |
Отдельное спасибо Диме, софтовому блогеру, который мне это все помог. | |
73 | |
00:02:36,000 --> 00:02:39,000 | |
— Леш, у меня тут есть крышка от камеры Sony. | |
74 | |
00:02:39,000 --> 00:02:41,000 | |
Замечательный кусок пластика. | |
75 | |
00:02:41,000 --> 00:02:44,000 | |
Здесь вот, видишь, можно вот так вот пальцами сжимать. | |
76 | |
00:02:44,000 --> 00:02:45,000 | |
Ребята из Sony дизайнили. | |
77 | |
00:02:45,000 --> 00:02:46,000 | |
И прям прикольно. | |
78 | |
00:02:46,000 --> 00:02:47,000 | |
Оно двигается туда-сюда. | |
79 | |
00:02:47,000 --> 00:02:48,000 | |
— У меня таких три, Витя. | |
80 | |
00:02:48,000 --> 00:02:49,000 | |
Можешь мне не продавать. | |
81 | |
00:02:49,000 --> 00:02:50,000 | |
У меня таких три. | |
82 | |
00:02:50,000 --> 00:02:51,000 | |
— Е-мое. | |
83 | |
00:02:51,000 --> 00:02:54,000 | |
Чеб тебе еще продать такого из пластика красивого. | |
84 | |
00:02:55,000 --> 00:02:56,000 | |
— Так. | |
85 | |
00:02:56,000 --> 00:02:57,000 | |
Ну, не знаю. | |
86 | |
00:02:57,000 --> 00:03:00,000 | |
Заряжается, но не включается пока что. | |
87 | |
00:03:01,000 --> 00:03:02,000 | |
Ладно. | |
88 | |
00:03:03,000 --> 00:03:06,000 | |
Уже в следующий раз расскажу в следующем стриме, короче, | |
89 | |
00:03:06,000 --> 00:03:08,000 | |
про впечатление, когда пообновляю все. | |
90 | |
00:03:08,000 --> 00:03:09,000 | |
Но выглядит прям приятно. | |
91 | |
00:03:09,000 --> 00:03:10,000 | |
— Да? | |
92 | |
00:03:10,000 --> 00:03:11,000 | |
— Приятный кусок пластика. | |
93 | |
00:03:11,000 --> 00:03:14,000 | |
— Смотри, ты в прошлом выпуске анонсировал, что мы... | |
94 | |
00:03:14,000 --> 00:03:15,000 | |
— О, он побежал. | |
95 | |
00:03:15,000 --> 00:03:16,000 | |
— Побежал. | |
96 | |
00:03:16,000 --> 00:03:17,000 | |
Заяц побежал. | |
97 | |
00:03:17,000 --> 00:03:18,000 | |
— Он теперь бежит уже. | |
98 | |
00:03:18,000 --> 00:03:19,000 | |
— В колесе. | |
99 | |
00:03:19,000 --> 00:03:21,000 | |
— Он будет в колесе и зарядит твое устройство. | |
100 | |
00:03:21,000 --> 00:03:24,000 | |
Ты в прошлом выпуске говорил, что мы с тобой в Турцию поедем. | |
101 | |
00:03:24,000 --> 00:03:26,000 | |
Ну, как мы с тобой, наша команда. | |
102 | |
00:03:28,000 --> 00:03:29,000 | |
— Так. | |
103 | |
00:03:29,000 --> 00:03:30,000 | |
— Да, и как мы съездили. | |
104 | |
00:03:30,000 --> 00:03:32,000 | |
— О, он теперь, извини, побежал. | |
105 | |
00:03:32,000 --> 00:03:33,000 | |
Реально теперь бегает. | |
106 | |
00:03:33,000 --> 00:03:34,000 | |
— Теперь бегает, да. | |
107 | |
00:03:34,000 --> 00:03:35,000 | |
— Дикой на анимации. | |
108 | |
00:03:35,000 --> 00:03:36,000 | |
— Ну, как? | |
109 | |
00:03:36,000 --> 00:03:37,000 | |
— Еще и анимации показывает. | |
110 | |
00:03:37,000 --> 00:03:38,000 | |
— Ну, ты расскажи, как мы съездили, | |
111 | |
00:03:38,000 --> 00:03:40,000 | |
потому что мы так и съездили в Турцию. | |
112 | |
00:03:40,000 --> 00:03:42,000 | |
— Да, мы съездили, и было просто замечательно. | |
113 | |
00:03:42,000 --> 00:03:43,000 | |
— У нас же подкаст про EI можно рассказать. | |
114 | |
00:03:43,000 --> 00:03:44,000 | |
— Да. | |
115 | |
00:03:44,000 --> 00:03:47,000 | |
Ну, мы там много EI обсуждали на самом деле. | |
116 | |
00:03:47,000 --> 00:03:49,000 | |
Насколько я помню. | |
117 | |
00:03:49,000 --> 00:03:51,000 | |
— Мы там EI обсуждали? | |
118 | |
00:03:51,000 --> 00:03:53,000 | |
— Ну, соври. | |
119 | |
00:03:53,000 --> 00:03:55,000 | |
— Я совсем плохо помню, что мы там обсуждали. | |
120 | |
00:03:55,000 --> 00:03:57,000 | |
У нас была очень интенсивная поездка. | |
121 | |
00:03:57,000 --> 00:03:59,000 | |
— Чтобы как-то подвязаться к подкасту. | |
122 | |
00:03:59,000 --> 00:04:01,000 | |
Короче, ребята, для тех, кто волнуется, | |
123 | |
00:04:01,000 --> 00:04:03,000 | |
хорошо мы отдохнули или нет, | |
124 | |
00:04:03,000 --> 00:04:05,000 | |
мы отдохнули замечательно. | |
125 | |
00:04:05,000 --> 00:04:08,000 | |
А Леша показывает в камеру включающийся Рэббит. | |
126 | |
00:04:09,000 --> 00:04:11,000 | |
И там написано Рэббит. | |
127 | |
00:04:11,000 --> 00:04:13,000 | |
— Я сам через камеру смотрю. | |
128 | |
00:04:13,000 --> 00:04:15,000 | |
Представляете, насколько я люблю нашу аудиторию? | |
129 | |
00:04:15,000 --> 00:04:18,000 | |
Я смотрю на экран, я смотрю через камеру вместе с вами. | |
130 | |
00:04:18,000 --> 00:04:20,000 | |
— Ты смотришь глазами аудитории. | |
131 | |
00:04:20,000 --> 00:04:22,000 | |
— Так, у нас аудиоподкаст, надо комментировать. | |
132 | |
00:04:22,000 --> 00:04:25,000 | |
Там сейчас R1 написано, и крутится что-то. | |
133 | |
00:04:28,000 --> 00:04:30,000 | |
Ииии, слушай, ну графика классная. | |
134 | |
00:04:30,000 --> 00:04:32,000 | |
Кусок этой коробочки, | |
135 | |
00:04:32,000 --> 00:04:34,000 | |
еще можно графику запускать какую-то. | |
136 | |
00:04:34,000 --> 00:04:35,000 | |
Классно. | |
137 | |
00:04:35,000 --> 00:04:37,000 | |
— Идеально. | |
138 | |
00:04:37,000 --> 00:04:39,000 | |
— Дальше уже сервис. | |
139 | |
00:04:39,000 --> 00:04:41,000 | |
Ну посмотри, как красиво, господи, посмотри. | |
140 | |
00:04:41,000 --> 00:04:43,000 | |
Ну красиво же. | |
141 | |
00:04:43,000 --> 00:04:45,000 | |
— Красиво, да. Выглядит красиво. | |
142 | |
00:04:45,000 --> 00:04:46,000 | |
— Ладно. | |
143 | |
00:04:46,000 --> 00:04:48,000 | |
Все, уже после стрима буду баловаться. | |
144 | |
00:04:48,000 --> 00:04:50,000 | |
Турцию съездили, в Турции кайфово. | |
145 | |
00:04:50,000 --> 00:04:52,000 | |
Попали на футбольный финал, | |
146 | |
00:04:52,000 --> 00:04:54,000 | |
когда Турция выиграла. | |
147 | |
00:04:54,000 --> 00:04:56,000 | |
— Ну финал, давай так. | |
148 | |
00:04:56,000 --> 00:04:58,000 | |
— Ну типа ладно, одна восьмая финала, | |
149 | |
00:04:58,000 --> 00:04:59,000 | |
где Турция выиграла. | |
150 | |
00:04:59,000 --> 00:05:00,000 | |
Мы были в маленьком городке. | |
151 | |
00:05:00,000 --> 00:05:02,000 | |
Весь этот город всю ночь ездил на машинах, | |
152 | |
00:05:02,000 --> 00:05:05,000 | |
палил факел, и полиция вместе с ними праздновала. | |
153 | |
00:05:05,000 --> 00:05:07,000 | |
И мы вместе с ними праздновали. | |
154 | |
00:05:07,000 --> 00:05:09,000 | |
Ходили в колоннах, танцевали. | |
155 | |
00:05:09,000 --> 00:05:10,000 | |
— Нас даже не побили. | |
156 | |
00:05:10,000 --> 00:05:11,000 | |
— Нас никто не побил. | |
157 | |
00:05:11,000 --> 00:05:13,000 | |
Научились правильную турецкую казу делать. | |
158 | |
00:05:13,000 --> 00:05:14,000 | |
Вот такую. | |
159 | |
00:05:14,000 --> 00:05:15,000 | |
У них так все делали, вот так. | |
160 | |
00:05:15,000 --> 00:05:16,000 | |
— С мордочкой, да? | |
161 | |
00:05:16,000 --> 00:05:17,000 | |
— Да. | |
162 | |
00:05:17,000 --> 00:05:19,000 | |
Как Рэббит М. Ван, кстати, Руан. | |
163 | |
00:05:19,000 --> 00:05:21,000 | |
Я считаю, классно съездили. | |
164 | |
00:05:21,000 --> 00:05:24,000 | |
Ну и, конечно же, подумали над много чем интересным. | |
165 | |
00:05:24,000 --> 00:05:27,000 | |
Может быть, скоро вы увидите результаты наших раздумий. | |
166 | |
00:05:29,000 --> 00:05:30,000 | |
— Возможно. | |
167 | |
00:05:30,000 --> 00:05:32,000 | |
— Да, могли бы, конечно, кассеты записать в это время, | |
168 | |
00:05:32,000 --> 00:05:34,000 | |
но не в этот раз. | |
169 | |
00:05:34,000 --> 00:05:35,000 | |
— Но это слишком просто. | |
170 | |
00:05:35,000 --> 00:05:36,000 | |
— Это слишком просто. | |
171 | |
00:05:36,000 --> 00:05:39,000 | |
Но мы запишем, дека стоит, кассеты готовы. | |
172 | |
00:05:39,000 --> 00:05:42,000 | |
Мы еще всерьез задумывались о том, | |
173 | |
00:05:42,000 --> 00:05:45,000 | |
что надо бы музыкальный клип записать с Алексеем. | |
174 | |
00:05:45,000 --> 00:05:47,000 | |
— А-а-а, ты про это? | |
175 | |
00:05:48,000 --> 00:05:49,000 | |
— Да, про это тоже. | |
176 | |
00:05:49,000 --> 00:05:51,000 | |
Но мы забили, короче, и не записали. | |
177 | |
00:05:52,000 --> 00:05:54,000 | |
— Блин, я думаю, он бы был слишком не кринжовый, | |
178 | |
00:05:54,000 --> 00:05:57,000 | |
потому что мы бы там, конечно же, это все красиво сделали в Турции. | |
179 | |
00:05:57,000 --> 00:05:59,000 | |
— Ну, сто процентов, да, сто процентов. | |
180 | |
00:05:59,000 --> 00:06:00,000 | |
Где мы и где кринжовые. | |
181 | |
00:06:02,000 --> 00:06:03,000 | |
Слушай, я тебе так скажу. | |
182 | |
00:06:03,000 --> 00:06:08,000 | |
Давай мы еще пару своих песен запишем на кассету, может быть. | |
183 | |
00:06:10,000 --> 00:06:11,000 | |
— Блин. | |
184 | |
00:06:12,000 --> 00:06:13,000 | |
— Ты повышаешь ставки. | |
185 | |
00:06:14,000 --> 00:06:15,000 | |
— Как тебе идея? | |
186 | |
00:06:16,000 --> 00:06:17,000 | |
— Прям своих, да? | |
187 | |
00:06:18,000 --> 00:06:19,000 | |
— Ну, конечно, конечно. | |
188 | |
00:06:20,000 --> 00:06:21,000 | |
— Ой, не знаю. | |
189 | |
00:06:21,000 --> 00:06:22,000 | |
Тут просто бы записать кассеты. | |
190 | |
00:06:22,000 --> 00:06:24,000 | |
Ну, давай как идею отложим на стеке. | |
191 | |
00:06:24,000 --> 00:06:25,000 | |
— Угу. | |
192 | |
00:06:25,000 --> 00:06:26,000 | |
— В принципе. | |
193 | |
00:06:26,000 --> 00:06:27,000 | |
— Мало ли, вдруг получится. | |
194 | |
00:06:29,000 --> 00:06:30,000 | |
Ай, ладно. | |
195 | |
00:06:30,000 --> 00:06:34,000 | |
Давай мы перейдем к тому, что будем рассказывать, | |
196 | |
00:06:34,000 --> 00:06:35,000 | |
зачем мы здесь собрались. | |
197 | |
00:06:35,000 --> 00:06:37,000 | |
А то вдруг кто-то не знает. | |
198 | |
00:06:37,000 --> 00:06:39,000 | |
Ты как-то совсем забыл, что ли, за две недели, | |
199 | |
00:06:39,000 --> 00:06:40,000 | |
как у нас подкаст строится? | |
200 | |
00:06:40,000 --> 00:06:44,000 | |
Сначала ты поешь песню, я заряжаюсь этой песней, | |
201 | |
00:06:44,000 --> 00:06:45,000 | |
потом мы начинаем. | |
202 | |
00:06:46,000 --> 00:06:47,000 | |
— Разве? | |
203 | |
00:06:47,000 --> 00:06:48,000 | |
— Конечно. | |
204 | |
00:06:48,000 --> 00:06:54,000 | |
— Я думал, мы сначала рассказываем про всякие ссылки, клуб, а потом... | |
205 | |
00:06:54,000 --> 00:06:56,000 | |
— Витя, тебе надо посмотреть АйА подкаст хоть один раз, | |
206 | |
00:06:56,000 --> 00:06:58,000 | |
чтобы вспомнить, как это делается. | |
207 | |
00:06:58,000 --> 00:07:00,000 | |
— Да, я такое не смотрю. | |
208 | |
00:07:00,000 --> 00:07:02,000 | |
— Ты не волнуйся, я тебе все расскажу. | |
209 | |
00:07:02,000 --> 00:07:04,000 | |
Короче, давай, сейчас твоя песня. | |
210 | |
00:07:04,000 --> 00:07:05,000 | |
Поехали? | |
211 | |
00:07:05,000 --> 00:07:08,000 | |
— Да, в чате пишут, что будет Ария, но нет. | |
212 | |
00:07:08,000 --> 00:07:10,000 | |
Ария, оставим ее для Леши. | |
213 | |
00:07:10,000 --> 00:07:13,000 | |
— Ты мне скажи, поехали или не поехали. | |
214 | |
00:07:13,000 --> 00:07:16,000 | |
— А, сейчас, подожди, я выберу, какой куплет я буду петь. | |
215 | |
00:07:16,000 --> 00:07:19,000 | |
— Да ты просто, блин, скажи поехали, я потом нарежу. | |
216 | |
00:07:19,000 --> 00:07:20,000 | |
Поехали? | |
217 | |
00:07:20,000 --> 00:07:21,000 | |
— Поехали. | |
218 | |
00:07:22,000 --> 00:07:24,000 | |
Без тебя я не я, без тебя меня нет. | |
219 | |
00:07:24,000 --> 00:07:27,000 | |
Они говорят, говорят, это бред. | |
220 | |
00:07:27,000 --> 00:07:30,000 | |
Это солнечный яд, золотые лучи. | |
221 | |
00:07:30,000 --> 00:07:32,000 | |
Они говорят, надо срочно лечить. | |
222 | |
00:07:32,000 --> 00:07:35,000 | |
Я хотела забыть до упора и вниз. | |
223 | |
00:07:35,000 --> 00:07:37,000 | |
Я считала столбы и растерянных птиц. | |
224 | |
00:07:37,000 --> 00:07:40,000 | |
Без тебя меня нет, отпусти, отпусти. | |
225 | |
00:07:40,000 --> 00:07:43,000 | |
До угла по стене, мама, папа, прости. | |
226 | |
00:07:43,000 --> 00:07:45,000 | |
Я сошла с ума, я сошла с ума. | |
227 | |
00:07:45,000 --> 00:07:47,000 | |
Она мне нужна, она мне нужна. | |
228 | |
00:07:50,000 --> 00:07:53,000 | |
— Эта песня достойна записи на кассете. | |
229 | |
00:07:53,000 --> 00:07:54,000 | |
Всем привет, привет. | |
230 | |
00:07:54,000 --> 00:08:00,000 | |
Вы слушаете 37-й выпуск лучшего музыкально-яйного подкаста | |
231 | |
00:08:01,000 --> 00:08:03,000 | |
под названием «Айаподкаст» | |
232 | |
00:08:03,000 --> 00:08:08,000 | |
и ваша постоянная ведущая, развлекательно-образовательная ведущая | |
233 | |
00:08:08,000 --> 00:08:10,000 | |
Алексей Картыник и... | |
234 | |
00:08:10,000 --> 00:08:11,000 | |
— Виктор Шленченко. | |
235 | |
00:08:11,000 --> 00:08:13,000 | |
Всем привет, привет, привет. | |
236 | |
00:08:13,000 --> 00:08:14,000 | |
— Будьте здрасте. | |
237 | |
00:08:14,000 --> 00:08:17,000 | |
Ну что, лучшие новости про яй сегодня ждут наших гостей | |
238 | |
00:08:17,000 --> 00:08:19,000 | |
после такой разминочки. | |
239 | |
00:08:19,000 --> 00:08:22,000 | |
— Ну, я бы сказал, сегодня самые лучшие. | |
240 | |
00:08:22,000 --> 00:08:25,000 | |
У нас обычно лучшие, а сегодня прям самые лучшие. | |
241 | |
00:08:25,000 --> 00:08:27,000 | |
— Конечно, мы сегодня вам расскажем и про то, | |
242 | |
00:08:27,000 --> 00:08:30,000 | |
что там, как там наклоняют OpenAI и всякие регуляторы. | |
243 | |
00:08:30,000 --> 00:08:35,000 | |
И расскажем вам про новые сеточки, которые генерируют смешные видео. | |
244 | |
00:08:35,000 --> 00:08:37,000 | |
Даже про маска мы сегодня вспомним, | |
245 | |
00:08:37,000 --> 00:08:39,000 | |
так что старые добрые новости возвращаются. | |
246 | |
00:08:39,000 --> 00:08:40,000 | |
Но перед этим... | |
247 | |
00:08:40,000 --> 00:08:42,000 | |
— И про Google чуть-чуть будет. | |
248 | |
00:08:42,000 --> 00:08:43,000 | |
— Ну, про Google. | |
249 | |
00:08:43,000 --> 00:08:44,000 | |
Куда без них? | |
250 | |
00:08:44,000 --> 00:08:45,000 | |
— Как это без Гугла, да. | |
251 | |
00:08:45,000 --> 00:08:46,000 | |
— Конечно. | |
252 | |
00:08:46,000 --> 00:08:47,000 | |
Но перед этим давай напомним, | |
253 | |
00:08:47,000 --> 00:08:49,000 | |
благодаря кому мы делаем этот замечательный подкаст. | |
254 | |
00:08:50,000 --> 00:08:53,000 | |
— Мы его делаем благодаря NGX. | |
255 | |
00:08:53,000 --> 00:08:56,000 | |
NGX — это лучшее сообщество для тех, | |
256 | |
00:08:56,000 --> 00:08:59,000 | |
кто хочет стать крутейшим инженером. | |
257 | |
00:09:00,000 --> 00:09:01,000 | |
— Все так. | |
258 | |
00:09:01,000 --> 00:09:02,000 | |
NGX. | |
259 | |
00:09:02,000 --> 00:09:03,000 | |
Наконец-то я, кстати, научился выговаривать. | |
260 | |
00:09:03,000 --> 00:09:05,000 | |
NGX, пожалуйста, плюсик мне в карму. | |
261 | |
00:09:05,000 --> 00:09:08,000 | |
Да, наши кореша из NGX, собственно, | |
262 | |
00:09:08,000 --> 00:09:10,000 | |
являются нашими главными партнерами. | |
263 | |
00:09:10,000 --> 00:09:12,000 | |
И у наших корешей из NGX есть классные вещи, | |
264 | |
00:09:12,000 --> 00:09:14,000 | |
которые вы, наши слушатели дорогие, | |
265 | |
00:09:14,000 --> 00:09:17,000 | |
можете испытать и попробовать для того, | |
266 | |
00:09:17,000 --> 00:09:19,000 | |
чтобы прокачать себя, в том числе и я. | |
267 | |
00:09:19,000 --> 00:09:21,000 | |
И, видите, расскажу, что за штуки такие. | |
268 | |
00:09:21,000 --> 00:09:23,000 | |
Помимо того, что вы все уже наверняка подписаны | |
269 | |
00:09:23,000 --> 00:09:26,000 | |
за общество NGX по ссылке, если нет, то подпишитесь, | |
270 | |
00:09:26,000 --> 00:09:28,000 | |
у ребят из NGX есть два крутейших курса, | |
271 | |
00:09:28,000 --> 00:09:29,000 | |
связанных с EI. | |
272 | |
00:09:29,000 --> 00:09:32,000 | |
Первый называется EI Support Software Engineering, | |
273 | |
00:09:32,000 --> 00:09:35,000 | |
где рассказывается всякая разная база про LLM, | |
274 | |
00:09:35,000 --> 00:09:37,000 | |
как его использовать в инженерии, | |
275 | |
00:09:37,000 --> 00:09:39,000 | |
в прочем, программировании, | |
276 | |
00:09:39,000 --> 00:09:42,000 | |
написании документации, рефакторинга и так далее. | |
277 | |
00:09:42,000 --> 00:09:45,000 | |
С упором на JavaScript, Java, Python и аж C Sharp. | |
278 | |
00:09:45,000 --> 00:09:47,000 | |
— Мой любимый. | |
279 | |
00:09:47,000 --> 00:09:49,000 | |
— Да, Лешин любимый C Sharp. | |
280 | |
00:09:49,000 --> 00:09:53,000 | |
Он бесплатный, стоит денег, 40 долларов, но того стоит. | |
281 | |
00:09:53,000 --> 00:09:56,000 | |
А второй курс вообще гораздо дешевле. | |
282 | |
00:09:56,000 --> 00:09:58,000 | |
Он называется Prompted Engineering Foundations | |
283 | |
00:09:58,000 --> 00:10:02,000 | |
и подойдет для тех, кто только входит в мир нейросетей | |
284 | |
00:10:02,000 --> 00:10:05,000 | |
и хочет научиться составлять идеальные промпты. | |
285 | |
00:10:05,000 --> 00:10:07,000 | |
— Все так, все так. | |
286 | |
00:10:07,000 --> 00:10:09,000 | |
И если про эти курсы вы уже, некоторые из вас, слышали, | |
287 | |
00:10:09,000 --> 00:10:11,000 | |
спасибо вам, если вы их попробовали. | |
288 | |
00:10:11,000 --> 00:10:13,000 | |
И вообще пройдите, пожалуйста, по каждой ссылочке | |
289 | |
00:10:13,000 --> 00:10:15,000 | |
в начале нашего подкаста. | |
290 | |
00:10:15,000 --> 00:10:18,000 | |
Это очень важно для того, чтобы наш подкаст продолжал выходить, | |
291 | |
00:10:18,000 --> 00:10:21,000 | |
для того, чтобы вы получали классное знание. | |
292 | |
00:10:21,000 --> 00:10:24,000 | |
Так вот, кроме этих курсов, у NGX появилось еще | |
293 | |
00:10:24,000 --> 00:10:27,000 | |
два замечательных направления работы. | |
294 | |
00:10:27,000 --> 00:10:31,000 | |
Эта информация уже будет полезна не обычным программистам, | |
295 | |
00:10:31,000 --> 00:10:34,000 | |
а тем, кто работает в командах и владеет командами | |
296 | |
00:10:34,000 --> 00:10:36,000 | |
либо менеджит команды. | |
297 | |
00:10:36,000 --> 00:10:39,000 | |
Потому что NGX проводит аж целые образовательные программы | |
298 | |
00:10:39,000 --> 00:10:41,000 | |
для команд. | |
299 | |
00:10:41,000 --> 00:10:43,000 | |
Одна из них называется | |
300 | |
00:10:43,000 --> 00:10:46,000 | |
GEN-AI Adoption Program for Engineering Teams. | |
301 | |
00:10:46,000 --> 00:10:49,000 | |
Именно что сказано, то и будут вам давать. | |
302 | |
00:10:49,000 --> 00:10:52,000 | |
Вам расскажут, сделают целый тренинг 12-недельный | |
303 | |
00:10:52,000 --> 00:10:54,000 | |
всей команде. | |
304 | |
00:10:54,000 --> 00:10:57,000 | |
И научат монтенить код и инженеративные AI, | |
305 | |
00:10:57,000 --> 00:10:59,000 | |
научат писать тест-кейсы с помощью AI, | |
306 | |
00:10:59,000 --> 00:11:01,000 | |
автоматизировать тестирование, | |
307 | |
00:11:01,000 --> 00:11:03,000 | |
имплементировать разнообразные API-шки AI, | |
308 | |
00:11:03,000 --> 00:11:05,000 | |
использовать все это в продуктах | |
309 | |
00:11:05,000 --> 00:11:07,000 | |
и, собственно, закручивать бизнес-логику | |
310 | |
00:11:07,000 --> 00:11:10,000 | |
ваших продуктов вокруг AI. | |
311 | |
00:11:10,000 --> 00:11:12,000 | |
То есть это уже такая прям серьезная программа | |
312 | |
00:11:12,000 --> 00:11:14,000 | |
для целых команд. | |
313 | |
00:11:14,000 --> 00:11:16,000 | |
Если нас слушают менеджеры, топ-менеджеры, | |
314 | |
00:11:16,000 --> 00:11:19,000 | |
обратите внимание, ссылка будет в описании. | |
315 | |
00:11:19,000 --> 00:11:21,000 | |
И вторая программа называется | |
316 | |
00:11:21,000 --> 00:11:24,000 | |
Navigation Team Dynamics | |
317 | |
00:11:24,000 --> 00:11:27,000 | |
от проекта под названием NGX-HI. | |
318 | |
00:11:27,000 --> 00:11:30,000 | |
Это не связанная с AI-м программа, | |
319 | |
00:11:30,000 --> 00:11:32,000 | |
но, тем не менее, она направлена на | |
320 | |
00:11:32,000 --> 00:11:35,000 | |
улучшение атмосферы в команде, | |
321 | |
00:11:35,000 --> 00:11:39,000 | |
создание коллаборативных всяческих практик | |
322 | |
00:11:39,000 --> 00:11:42,000 | |
и прививания для команды коллаборативных практик | |
323 | |
00:11:42,000 --> 00:11:45,000 | |
и, ну, собственно, сплочения команды. | |
324 | |
00:11:45,000 --> 00:11:47,000 | |
То есть если в вашей команде не хватает | |
325 | |
00:11:47,000 --> 00:11:50,000 | |
таких навыков, если вы видите, что где-то раздрай, | |
326 | |
00:11:50,000 --> 00:11:52,000 | |
может быть, у вас новая команда, | |
327 | |
00:11:52,000 --> 00:11:55,000 | |
то можете тоже пройти по ссылочке, почитать. | |
328 | |
00:11:55,000 --> 00:11:58,000 | |
Специалисты из NGX-а встраиваются к вам, | |
329 | |
00:11:58,000 --> 00:12:00,000 | |
все вам объясняют, показывают. | |
330 | |
00:12:00,000 --> 00:12:03,000 | |
Сама программа очень подробно описана, | |
331 | |
00:12:03,000 --> 00:12:08,000 | |
занимает, по-моему, около 30 часов интенсивной работы, | |
332 | |
00:12:08,000 --> 00:12:12,000 | |
5 модулей, 84 активности вас ожидает, | |
333 | |
00:12:12,000 --> 00:12:14,000 | |
так что тоже обращайте внимание. | |
334 | |
00:12:14,000 --> 00:12:18,000 | |
По всем этим ссылочкам, пожалуйста, кликните хотя бы. | |
335 | |
00:12:18,000 --> 00:12:20,000 | |
Если вам что-то не понравится, | |
336 | |
00:12:20,000 --> 00:12:21,000 | |
то поделитесь с друзьями, | |
337 | |
00:12:21,000 --> 00:12:24,000 | |
потому что мы тут вам ерунды рекомендовать не будем. | |
338 | |
00:12:24,000 --> 00:12:26,000 | |
У нас наши партнеры самые крутые партнеры. | |
339 | |
00:12:26,000 --> 00:12:29,000 | |
Точнее, один партнер у нас самый крутой. | |
340 | |
00:12:29,000 --> 00:12:30,000 | |
Можно сказать, Голд. | |
341 | |
00:12:30,000 --> 00:12:32,000 | |
Он Голд партнер, получается. | |
342 | |
00:12:32,000 --> 00:12:34,000 | |
Голд под Голд, да. | |
343 | |
00:12:34,000 --> 00:12:38,000 | |
Да, слушай, а если люди прошли по ссылкам, | |
344 | |
00:12:38,000 --> 00:12:40,000 | |
увидели прямо офигенный контент, | |
345 | |
00:12:40,000 --> 00:12:42,000 | |
поучились, получили навыки | |
346 | |
00:12:42,000 --> 00:12:44,000 | |
и не знают, где эти навыки обсудить, | |
347 | |
00:12:44,000 --> 00:12:46,000 | |
то куда им идти, расскажи? | |
348 | |
00:12:46,000 --> 00:12:49,000 | |
Ну, конечно же, нужно идти в наш чатик. | |
349 | |
00:12:49,000 --> 00:12:52,000 | |
Есть замечательный чатик Айаподкаста в Телеграме, | |
350 | |
00:12:52,000 --> 00:12:56,000 | |
в котором, между прочим, мы проводим стримы, | |
351 | |
00:12:56,000 --> 00:12:58,000 | |
и прямо сейчас идёт онлайн-стрим | |
352 | |
00:12:58,000 --> 00:13:01,000 | |
с нашими самыми лучшими подписчиками. | |
353 | |
00:13:02,000 --> 00:13:04,000 | |
С самыми лучшими подписчиками, | |
354 | |
00:13:04,000 --> 00:13:06,000 | |
которые прямо сейчас смотрят нас в онлайне. | |
355 | |
00:13:06,000 --> 00:13:09,000 | |
И несмотря на то, что до онлайна доходит немного, | |
356 | |
00:13:09,000 --> 00:13:12,000 | |
но каждого из тех, кто доходит до онлайна, | |
357 | |
00:13:12,000 --> 00:13:14,000 | |
мы любим, обожаем и стараемся отвечать. | |
358 | |
00:13:14,000 --> 00:13:16,000 | |
Там уже спрашивают, кстати, в чате у нас, | |
359 | |
00:13:16,000 --> 00:13:18,000 | |
когда же мы, Вить, перейдём на еженедельный подкаст. | |
360 | |
00:13:18,000 --> 00:13:21,000 | |
Ну, я сам этого безумно жду, Лёша. | |
361 | |
00:13:21,000 --> 00:13:23,000 | |
Да, я бы так не сказал. | |
362 | |
00:13:23,000 --> 00:13:27,000 | |
Я уже представляю, как ты меня будешь | |
363 | |
00:13:27,000 --> 00:13:29,000 | |
в кавычках «любить», когда мы с тобой будем | |
364 | |
00:13:29,000 --> 00:13:31,000 | |
не один раз в две недели по три часа заседать, | |
365 | |
00:13:31,000 --> 00:13:33,000 | |
а два раза в три часа. | |
366 | |
00:13:33,000 --> 00:13:35,000 | |
Ты же понимаешь, что то, что новостей меньше, | |
367 | |
00:13:35,000 --> 00:13:38,000 | |
вообще никак это не матчится. | |
368 | |
00:13:38,000 --> 00:13:40,000 | |
Я могу распрягать с тобой хоть вечность, Вить. | |
369 | |
00:13:43,000 --> 00:13:45,000 | |
В общем-то, да, приходите в чат, | |
370 | |
00:13:45,000 --> 00:13:47,000 | |
нас там лампово, и все новости там, | |
371 | |
00:13:47,000 --> 00:13:49,000 | |
ну, практически все, большинство новостей появляются заранее. | |
372 | |
00:13:49,000 --> 00:13:51,000 | |
Их можно обсудить, можно пообщаться. | |
373 | |
00:13:51,000 --> 00:13:56,000 | |
Можно с кайфом провести время. | |
374 | |
00:13:57,000 --> 00:13:59,000 | |
С чувством, с кайфом, с расстановкой. | |
375 | |
00:14:01,000 --> 00:14:03,000 | |
Да, ну что, поехали теперь по новостям. | |
376 | |
00:14:05,000 --> 00:14:07,000 | |
Поехали, и начнём мы, угадай, с чего? | |
377 | |
00:14:07,000 --> 00:14:09,000 | |
С твоей любимой рубрики. | |
378 | |
00:14:09,000 --> 00:14:12,000 | |
С моей любимой рубрики «Закон и порядок». | |
379 | |
00:14:12,000 --> 00:14:13,000 | |
Шучу. | |
380 | |
00:14:13,000 --> 00:14:15,000 | |
Шучу, шучу, шучу. | |
381 | |
00:14:17,000 --> 00:14:20,000 | |
Начнём мы с рубрики «Большие рыбы». | |
382 | |
00:14:20,000 --> 00:14:23,000 | |
Основная большая рыба — это кто? | |
383 | |
00:14:23,000 --> 00:14:25,000 | |
Open AI. | |
384 | |
00:14:25,000 --> 00:14:27,000 | |
Далеко ходить не надо. | |
385 | |
00:14:27,000 --> 00:14:30,000 | |
Все правильно, давай начнем с паники. | |
386 | |
00:14:30,000 --> 00:14:32,000 | |
Open AI взломали, Леша! | |
387 | |
00:14:32,000 --> 00:14:34,000 | |
Ты слышал, что Open AI взломали? | |
388 | |
00:14:34,000 --> 00:14:36,000 | |
Блин, я сразу про язык программирования подумал. | |
389 | |
00:14:36,000 --> 00:14:38,000 | |
Там в го, по-моему, паника. | |
390 | |
00:14:39,000 --> 00:14:41,000 | |
Open AI взломали, да? | |
391 | |
00:14:41,000 --> 00:14:43,000 | |
Взломали. | |
392 | |
00:14:43,000 --> 00:14:45,000 | |
Что общего между Рэббитом и Open AI? | |
393 | |
00:14:45,000 --> 00:14:47,000 | |
Того и того взломали! | |
394 | |
00:14:49,000 --> 00:14:51,000 | |
Да уж, ну, Open AI взломали давно. | |
395 | |
00:14:52,000 --> 00:14:54,000 | |
И практически можно сказать, | |
396 | |
00:14:54,000 --> 00:14:56,000 | |
что неправда, по крайней мере, по мнению Open AI, | |
397 | |
00:14:56,000 --> 00:14:59,000 | |
потому что они этот случай предпочитали замалчивать | |
398 | |
00:14:59,000 --> 00:15:02,000 | |
по той причине, что по официальной версии | |
399 | |
00:15:02,000 --> 00:15:05,000 | |
никакие данные особо не были украдены, | |
400 | |
00:15:05,000 --> 00:15:07,000 | |
кроме каких-то внутренних документов. | |
401 | |
00:15:07,000 --> 00:15:09,000 | |
В общем, взлом этот кажется странным, | |
402 | |
00:15:09,000 --> 00:15:12,000 | |
потому что лучше бы вообще не рассказывали про него. | |
403 | |
00:15:12,000 --> 00:15:14,000 | |
Ну, такое ощущение, знаешь, они пришли такие, | |
404 | |
00:15:14,000 --> 00:15:16,000 | |
ну, вообще-то нас год назад взломали, | |
405 | |
00:15:16,000 --> 00:15:18,000 | |
но вы не волнуйтесь, потому что это и злом, | |
406 | |
00:15:18,000 --> 00:15:20,000 | |
назвать странным. | |
407 | |
00:15:20,000 --> 00:15:23,000 | |
При том, что увели секретные переписки сотрудников, | |
408 | |
00:15:23,000 --> 00:15:26,000 | |
в которых обсуждались новые модели. | |
409 | |
00:15:26,000 --> 00:15:29,000 | |
Ну, как секретные? Внутренние переписки? | |
410 | |
00:15:29,000 --> 00:15:31,000 | |
Ну, секретные, внутренние. | |
411 | |
00:15:31,000 --> 00:15:33,000 | |
Ну, подожди, там новые модели обсуждали. | |
412 | |
00:15:33,000 --> 00:15:35,000 | |
И это все очень странно выглядит, | |
413 | |
00:15:35,000 --> 00:15:37,000 | |
потому что Open AI говорит, что, как бы, | |
414 | |
00:15:37,000 --> 00:15:39,000 | |
почему мы вам не рассказали про этот взлом? | |
415 | |
00:15:39,000 --> 00:15:41,000 | |
Потому что, во-первых, пользовательские данные | |
416 | |
00:15:41,000 --> 00:15:43,000 | |
не были затронуты по их заверениям, | |
417 | |
00:15:43,000 --> 00:15:45,000 | |
поэтому пользователь это не касается. | |
418 | |
00:15:45,000 --> 00:15:47,000 | |
Во-вторых, хакер, который это делал, | |
419 | |
00:15:47,000 --> 00:15:49,000 | |
не связан ни с какими другими странами, | |
420 | |
00:15:49,000 --> 00:15:51,000 | |
поэтому это не касается | |
421 | |
00:15:53,000 --> 00:15:55,000 | |
безопасности национального характера. | |
422 | |
00:15:55,000 --> 00:15:56,000 | |
И, как бы... | |
423 | |
00:15:56,000 --> 00:15:58,000 | |
Вообще, меня очень порадовала формулировка, | |
424 | |
00:15:58,000 --> 00:16:01,000 | |
что это не было угрозой национальной безопасности. | |
425 | |
00:16:01,000 --> 00:16:03,000 | |
Это значит, что может быть такой взлом Open AI, | |
426 | |
00:16:03,000 --> 00:16:06,000 | |
который будет угрозой национальной безопасности. | |
427 | |
00:16:06,000 --> 00:16:08,000 | |
Кстати, да. | |
428 | |
00:16:08,000 --> 00:16:10,000 | |
И тебя не смутило то, что компанию, | |
429 | |
00:16:10,000 --> 00:16:12,000 | |
которая взломала, приходит и говорит, | |
430 | |
00:16:12,000 --> 00:16:14,000 | |
нас не взломали, вы это, не парьтесь. | |
431 | |
00:16:14,000 --> 00:16:15,000 | |
Типа, что? | |
432 | |
00:16:15,000 --> 00:16:17,000 | |
Ну, это очень странно, да. | |
433 | |
00:16:17,000 --> 00:16:19,000 | |
Проверки какие-нибудь, если были, еще что-то. | |
434 | |
00:16:19,000 --> 00:16:21,000 | |
А так, компания пришла и сказала, | |
435 | |
00:16:21,000 --> 00:16:23,000 | |
что нас взломали, но вы не парьтесь. | |
436 | |
00:16:23,000 --> 00:16:25,000 | |
Короче, новость облетела весь интернет, | |
437 | |
00:16:25,000 --> 00:16:27,000 | |
но облетела именно в той формулировке, | |
438 | |
00:16:27,000 --> 00:16:28,000 | |
которую мы сейчас рассказали, | |
439 | |
00:16:28,000 --> 00:16:30,000 | |
без единой подробности. | |
440 | |
00:16:30,000 --> 00:16:31,000 | |
Вообще по нулям. | |
441 | |
00:16:31,000 --> 00:16:33,000 | |
Нигде нет никаких подробностей. | |
442 | |
00:16:33,000 --> 00:16:35,000 | |
То есть такого уровня взлома, | |
443 | |
00:16:35,000 --> 00:16:37,000 | |
который там, пусть был год назад, | |
444 | |
00:16:37,000 --> 00:16:39,000 | |
мне кажется, должны прям разбирать по кусочкам. | |
445 | |
00:16:39,000 --> 00:16:41,000 | |
Прям должны... | |
446 | |
00:16:41,000 --> 00:16:43,000 | |
Компании, которые занимаются DevSecOps, | |
447 | |
00:16:43,000 --> 00:16:45,000 | |
Security, всякими уязвимостями, | |
448 | |
00:16:45,000 --> 00:16:47,000 | |
должны сейчас просто OpenAI раздербанивать | |
449 | |
00:16:47,000 --> 00:16:49,000 | |
со всех сторон, но нет. | |
450 | |
00:16:49,000 --> 00:16:51,000 | |
Ну, типа, где, блин, справедливость? | |
451 | |
00:16:51,000 --> 00:16:53,000 | |
RabbitMQ, когда в своем устройстве | |
452 | |
00:16:53,000 --> 00:16:55,000 | |
случайно обнаружил уязвимость, | |
453 | |
00:16:55,000 --> 00:16:57,000 | |
что у них ключи можно стерить, | |
454 | |
00:16:57,000 --> 00:16:59,000 | |
так они целую страницу завели, | |
455 | |
00:16:59,000 --> 00:17:01,000 | |
на которой пишут каждый численный день, | |
456 | |
00:17:01,000 --> 00:17:03,000 | |
писали о том, как движется устранение этой уязвимости. | |
457 | |
00:17:03,000 --> 00:17:05,000 | |
OpenAI просто где-то на какой-то газете | |
458 | |
00:17:05,000 --> 00:17:07,000 | |
рассказал, что их взломали, и на этом все. | |
459 | |
00:17:07,000 --> 00:17:09,000 | |
Почему так? | |
460 | |
00:17:09,000 --> 00:17:11,000 | |
Ну, мне кажется, в OpenAI гораздо больше кредит доверия. | |
461 | |
00:17:11,000 --> 00:17:13,000 | |
Какой кредит доверия? | |
462 | |
00:17:13,000 --> 00:17:15,000 | |
Доферь. | |
463 | |
00:17:15,000 --> 00:17:17,000 | |
Компания. | |
464 | |
00:17:17,000 --> 00:17:19,000 | |
Которую девушку всем закроют, и все. | |
465 | |
00:17:19,000 --> 00:17:21,000 | |
Ну, у меня на самом деле | |
466 | |
00:17:21,000 --> 00:17:23,000 | |
сложились некоторые пазлы. | |
467 | |
00:17:23,000 --> 00:17:25,000 | |
Во-первых, Леопольд Ашинбреннера, | |
468 | |
00:17:25,000 --> 00:17:27,000 | |
он уже сам про это говорил, скорее всего, уволили | |
469 | |
00:17:27,000 --> 00:17:29,000 | |
как раз таки потому, что он сидел в компании | |
470 | |
00:17:29,000 --> 00:17:31,000 | |
в это время, и всем говорил, что так делать | |
471 | |
00:17:31,000 --> 00:17:33,000 | |
не надо, нас как бы взломали, | |
472 | |
00:17:33,000 --> 00:17:35,000 | |
может, давайте как-то про это подумаем. | |
473 | |
00:17:35,000 --> 00:17:37,000 | |
Тот, который книжку написал. Не книжку, а | |
474 | |
00:17:37,000 --> 00:17:39,000 | |
набор статей. | |
475 | |
00:17:39,000 --> 00:17:41,000 | |
Ну, можно называть это книжка | |
476 | |
00:17:41,000 --> 00:17:43,000 | |
Situational Awareness. | |
477 | |
00:17:43,969 --> 00:17:52,969 | |
Разбираем прям по частям, у нас вот недавно был созвон, первую часть разбирали, там есть про что подумать, если не читали, почитайте, там про будущее AGI. | |
478 | |
00:17:53,969 --> 00:17:59,969 | |
Так вот, а второй момент, ну очевидно, почему там полкан в совете директоров появился, ну все сложилось. | |
479 | |
00:17:59,969 --> 00:18:01,969 | |
Кстати, да, возможно поэтому. | |
480 | |
00:18:01,969 --> 00:18:07,969 | |
И может быть именно потому, что он там появился, эту статью так не расфорсили. | |
481 | |
00:18:08,969 --> 00:18:16,969 | |
Вообще непонятно, зачем про нее рассказали, но может быть где-то утечечка произошла, и этот генерал, бывший подполковник или как его там сказал, | |
482 | |
00:18:16,969 --> 00:18:27,969 | |
стоп, блин, я вам сказал, все, ни слова больше, мы сейчас там со своим ОНБ отделом 51 все расследуем и никому не пущу, ничего, поняли? | |
483 | |
00:18:27,969 --> 00:18:29,969 | |
Вот я думаю как-то так. | |
484 | |
00:18:29,969 --> 00:18:35,969 | |
Мне нравится, какое у тебя представление об американской системе безопасности из боевиков 90-х. | |
485 | |
00:18:35,969 --> 00:18:40,969 | |
А ты что думаешь, там демократия, да, будут сейчас все сидеть и разжевывать? | |
486 | |
00:18:40,969 --> 00:18:44,969 | |
Ну нет, конечно, блин, где так работает, нигде так система безопасности не работает. | |
487 | |
00:18:44,969 --> 00:18:45,969 | |
Ну да. | |
488 | |
00:18:45,969 --> 00:18:49,969 | |
Там еще на фоне Шварценеггер выходит с пушкой, знаешь, из горизонта. | |
489 | |
00:18:49,969 --> 00:18:51,969 | |
С квадратной базукой. | |
490 | |
00:18:51,969 --> 00:18:53,969 | |
С квадратной базукой, да, алды должны помнить. | |
491 | |
00:18:53,969 --> 00:18:55,969 | |
Да, там все должно быть. | |
492 | |
00:18:55,969 --> 00:19:01,969 | |
И сервера, и этот, Ютковский с ракетами на самолете летит и бомбит сервер на OpenAI. | |
493 | |
00:19:01,969 --> 00:19:03,969 | |
Готоцентры бомбит, да. | |
494 | |
00:19:03,969 --> 00:19:04,969 | |
Надо кино делать. | |
495 | |
00:19:04,969 --> 00:19:06,969 | |
В общем, такая вот новость. | |
496 | |
00:19:06,969 --> 00:19:11,969 | |
А тебе не кажется, что просто это какой-то действительно супер мелкий взлом? | |
497 | |
00:19:11,969 --> 00:19:13,969 | |
И что вообще рассусоливаться на эту тему? | |
498 | |
00:19:13,969 --> 00:19:15,969 | |
Ну как-то странно, что его так растиражировали. | |
499 | |
00:19:15,969 --> 00:19:18,969 | |
Я бы сделал ставку еще на то, что это просто вброс. | |
500 | |
00:19:18,969 --> 00:19:22,969 | |
Типа, знаешь, может быть там было такое, что сидят маркетологи OpenAI, | |
501 | |
00:19:22,969 --> 00:19:26,969 | |
такие, блин, ну не может быть, чтобы у нас все так гладко было. | |
502 | |
00:19:26,969 --> 00:19:29,969 | |
Ну вот сейчас начну говорить, что мы прям врем. | |
503 | |
00:19:29,969 --> 00:19:32,969 | |
Давайте сделаем хоть какой-то вброс, что мы тоже обычные люди. | |
504 | |
00:19:32,969 --> 00:19:37,969 | |
Да, думаю, что мы прям сами срежиссировали взлом или придумали его. | |
505 | |
00:19:37,969 --> 00:19:39,969 | |
Ну, как вариант. | |
506 | |
00:19:39,969 --> 00:19:43,969 | |
Я все-таки больше верю в ту версию, что утечка произошла, | |
507 | |
00:19:43,969 --> 00:19:46,969 | |
а тиражировать ее не позволило правительство. | |
508 | |
00:19:46,969 --> 00:19:50,969 | |
Потому что OpenAI все-таки уже, мне кажется, всем очевидно, | |
509 | |
00:19:50,969 --> 00:19:55,969 | |
что это компания национального уровня, | |
510 | |
00:19:55,969 --> 00:20:05,969 | |
которая является одним из, как сказать-то, ценностных факторов США. | |
511 | |
00:20:05,969 --> 00:20:07,969 | |
Пусть будет так вот. | |
512 | |
00:20:07,969 --> 00:20:13,969 | |
Недалек тот час, когда такие компании будут определять политику стран. | |
513 | |
00:20:13,969 --> 00:20:17,969 | |
Точнее, через такие компании будет определяться политика стран. | |
514 | |
00:20:17,969 --> 00:20:21,969 | |
У нас там в этике как раз будет кое-что очень близкое. | |
515 | |
00:20:21,969 --> 00:20:23,969 | |
Да, кстати, Ашин Бреннер про это много писал. | |
516 | |
00:20:23,969 --> 00:20:26,969 | |
Вы думаете, просто так OpenAI в Китае закрыл свои айпишки | |
517 | |
00:20:26,969 --> 00:20:30,969 | |
и блокирует их, когда захочет. | |
518 | |
00:20:30,969 --> 00:20:34,969 | |
Так что вот, давай дальше про OpenAI. | |
519 | |
00:20:34,969 --> 00:20:36,969 | |
Там забавная новость, конечно. | |
520 | |
00:20:36,969 --> 00:20:39,969 | |
Новость, которая сама себя уничтожила. | |
521 | |
00:20:39,969 --> 00:20:42,969 | |
Там крутая новость, да, потому что сначала сказали, | |
522 | |
00:20:42,969 --> 00:20:47,969 | |
что появится новый участник в совете директоров OpenAI, | |
523 | |
00:20:47,969 --> 00:20:49,969 | |
чувак из Apple. | |
524 | |
00:20:50,969 --> 00:20:52,969 | |
Что, Microsoft и Apple? | |
525 | |
00:20:52,969 --> 00:20:57,969 | |
Да, а как, а куда, а почему инвестиции от Microsoft, куда они делись? | |
526 | |
00:20:57,969 --> 00:21:00,969 | |
Ну, там надо сказать, что он наблюдателем должен был быть. | |
527 | |
00:21:00,969 --> 00:21:02,969 | |
То есть без права голоса. | |
528 | |
00:21:02,969 --> 00:21:05,969 | |
Без права голоса, но все равно позиция наблюдателя в совете директоров | |
529 | |
00:21:05,969 --> 00:21:07,969 | |
дает очень много прав. | |
530 | |
00:21:07,969 --> 00:21:10,969 | |
Но ты можешь пообщаться как бы с советом директоров и повлиять, | |
531 | |
00:21:10,969 --> 00:21:11,969 | |
парамонипулировать. | |
532 | |
00:21:11,969 --> 00:21:13,969 | |
Ты можешь пообщаться, повлиять. | |
533 | |
00:21:13,969 --> 00:21:15,969 | |
Ты достаточно рано узнаешь всю информацию, | |
534 | |
00:21:15,969 --> 00:21:18,969 | |
поэтому это достаточно весомая позиция. | |
535 | |
00:21:18,969 --> 00:21:22,969 | |
Но антимонопольщики американские сказали, | |
536 | |
00:21:22,969 --> 00:21:24,969 | |
вы что, офигели, что ли? | |
537 | |
00:21:24,969 --> 00:21:28,969 | |
Какой чувак из Apple в совете директоров OpenAI | |
538 | |
00:21:28,969 --> 00:21:31,969 | |
и такой же чувак из Microsoft, пускай нафиг идет. | |
539 | |
00:21:33,969 --> 00:21:37,969 | |
Потому что там был в рамках соглашения OpenAI и Microsoft | |
540 | |
00:21:37,969 --> 00:21:41,969 | |
в совете директоров OpenAI тоже был без права голоса наблюдатель | |
541 | |
00:21:41,969 --> 00:21:42,969 | |
от Microsoft. | |
542 | |
00:21:42,969 --> 00:21:45,969 | |
Вот и его тоже погнали, я извиняюсь, с санными тряпками | |
543 | |
00:21:45,969 --> 00:21:47,969 | |
американские антимонопольщики. | |
544 | |
00:21:47,969 --> 00:21:50,969 | |
Ну, еще не погнали, но это вот как раз-таки отголосочки. | |
545 | |
00:21:50,969 --> 00:21:52,969 | |
Мы, по-моему, в 34-м или 5-м выпуске уже обсуждали, | |
546 | |
00:21:52,969 --> 00:21:56,969 | |
что антимонопольщики начали присматриваться ко всем этим компаниям. | |
547 | |
00:21:56,969 --> 00:21:58,969 | |
И я так понимаю, что и Microsoft, и Apple... | |
548 | |
00:21:58,969 --> 00:22:00,969 | |
Ну, да, на них сто пудово надавили, | |
549 | |
00:22:00,969 --> 00:22:03,969 | |
потому что они буквально одновременно отказались от участия. | |
550 | |
00:22:03,969 --> 00:22:05,969 | |
Причем Microsoft прям вышел. | |
551 | |
00:22:05,969 --> 00:22:08,969 | |
И там OpenAI еще сказали, что | |
552 | |
00:22:09,969 --> 00:22:12,969 | |
Microsoft остается нашим самым ценным партнером. | |
553 | |
00:22:12,969 --> 00:22:17,969 | |
И поблагодарили заводом доверия оставшимся директорам. | |
554 | |
00:22:17,969 --> 00:22:20,969 | |
По-моему, вот мы с тобой как-то думали в каком-то из выпусков, | |
555 | |
00:22:20,969 --> 00:22:24,969 | |
как OpenAI избавится от атаков Microsoft. | |
556 | |
00:22:24,969 --> 00:22:26,969 | |
Вот оно, вот оно. | |
557 | |
00:22:28,969 --> 00:22:30,969 | |
Государство само помогает. | |
558 | |
00:22:32,969 --> 00:22:33,969 | |
Забавно, забавно. | |
559 | |
00:22:33,969 --> 00:22:35,969 | |
Прикинь, ты инвестор компании крупнейшей, | |
560 | |
00:22:35,969 --> 00:22:37,969 | |
инвестировал 10 миллиардов. | |
561 | |
00:22:38,969 --> 00:22:40,969 | |
Тебе даже, кстати, директоров посидеть нельзя, потому что... | |
562 | |
00:22:40,969 --> 00:22:43,969 | |
Да, даже просто молча посидеть, понимаешь? | |
563 | |
00:22:43,969 --> 00:22:44,969 | |
Просто молча. | |
564 | |
00:22:44,969 --> 00:22:46,969 | |
Там же без правого голоса было. | |
565 | |
00:22:46,969 --> 00:22:47,969 | |
Да, да. | |
566 | |
00:22:48,969 --> 00:22:50,969 | |
Хотел сказать слово нехорошее. | |
567 | |
00:22:51,969 --> 00:22:53,969 | |
Не надо, потом порезать придется. | |
568 | |
00:22:53,969 --> 00:22:55,969 | |
Да, думаю, все и так поняли. | |
569 | |
00:22:57,969 --> 00:22:58,969 | |
Хорошо. | |
570 | |
00:22:59,969 --> 00:23:00,969 | |
Вот. | |
571 | |
00:23:00,969 --> 00:23:03,969 | |
Что еще у нас с OpenAI случилось? | |
572 | |
00:23:04,969 --> 00:23:06,969 | |
OpenAI заключили сделку с Time. | |
573 | |
00:23:06,969 --> 00:23:08,969 | |
Самый крупнейший, наверное. | |
574 | |
00:23:08,969 --> 00:23:10,969 | |
Один из самых крупнейших архивов новостных. | |
575 | |
00:23:10,969 --> 00:23:11,969 | |
Ну и, в принципе, новостник. | |
576 | |
00:23:11,969 --> 00:23:12,969 | |
Я, кстати, не знаю. | |
577 | |
00:23:12,969 --> 00:23:14,969 | |
Time и The Time — это одно и то же, по-моему. | |
578 | |
00:23:15,969 --> 00:23:17,969 | |
Вот я настолько не шарю. | |
579 | |
00:23:17,969 --> 00:23:18,969 | |
Ну, The Time, наверное, не правильно. | |
580 | |
00:23:18,969 --> 00:23:20,969 | |
В общем, газета вот эта, Time. | |
581 | |
00:23:20,969 --> 00:23:22,969 | |
И там прикольно, потому что они по бартеру заключили сделку. | |
582 | |
00:23:22,969 --> 00:23:26,969 | |
OpenAI Time дает технологии для внедрения в свои сервисы, | |
583 | |
00:23:26,969 --> 00:23:28,969 | |
а сам получает доступ... | |
584 | |
00:23:28,969 --> 00:23:30,969 | |
Исково начать GPT. | |
585 | |
00:23:30,969 --> 00:23:31,969 | |
Типа того, да. | |
586 | |
00:23:31,969 --> 00:23:34,969 | |
А им дают доступ к столетнему архиву всех статей. | |
587 | |
00:23:34,969 --> 00:23:36,969 | |
Что мама не горюй. | |
588 | |
00:23:36,969 --> 00:23:37,969 | |
Прямо ого-го. | |
589 | |
00:23:38,969 --> 00:23:40,969 | |
Но забавная следующая новость. | |
590 | |
00:23:40,969 --> 00:23:42,969 | |
Ее можно подвязать с этим. | |
591 | |
00:23:42,969 --> 00:23:45,969 | |
Типа вот смотрите, OpenAI заключает кучу сделок. | |
592 | |
00:23:45,969 --> 00:23:48,969 | |
В OpenAI там такой весь звезда. | |
593 | |
00:23:48,969 --> 00:23:51,969 | |
И кто еще, соответственно, звездой становится? | |
594 | |
00:23:51,969 --> 00:23:52,969 | |
Конечно же, CEO OpenAI. | |
595 | |
00:23:52,969 --> 00:23:53,969 | |
Сэм Альтман. | |
596 | |
00:23:54,969 --> 00:23:56,969 | |
А что звезды делают, Вить, обычно, | |
597 | |
00:23:56,969 --> 00:23:58,969 | |
когда им звезда башку стукает? | |
598 | |
00:23:58,969 --> 00:24:00,969 | |
Ездят на крутейших тачках. | |
599 | |
00:24:01,969 --> 00:24:02,969 | |
Все так. | |
600 | |
00:24:02,969 --> 00:24:04,969 | |
Сэма Альтмана застукали. | |
601 | |
00:24:04,969 --> 00:24:06,969 | |
Как он ехал. | |
602 | |
00:24:06,969 --> 00:24:08,969 | |
Прямо зло ехал. | |
603 | |
00:24:08,969 --> 00:24:10,969 | |
На тачке под названием | |
604 | |
00:24:10,969 --> 00:24:12,969 | |
Koenigsegg Regera. | |
605 | |
00:24:12,969 --> 00:24:13,969 | |
Koenigsegg. | |
606 | |
00:24:13,969 --> 00:24:15,969 | |
Koenigsegg. | |
607 | |
00:24:15,969 --> 00:24:16,969 | |
Koenigsegg. | |
608 | |
00:24:16,969 --> 00:24:18,969 | |
Koenigsegg, простите. | |
609 | |
00:24:18,969 --> 00:24:20,969 | |
Почему я плохо выговариваю название этой машины, Вить? | |
610 | |
00:24:20,969 --> 00:24:21,969 | |
Знаешь почему? | |
611 | |
00:24:22,969 --> 00:24:25,969 | |
Потому что ты учил английский в школе. | |
612 | |
00:24:25,969 --> 00:24:26,969 | |
Нет. | |
613 | |
00:24:26,969 --> 00:24:27,969 | |
Потому что этих машин... | |
614 | |
00:24:27,969 --> 00:24:29,969 | |
Это машины, которые штучного производства. | |
615 | |
00:24:29,969 --> 00:24:31,969 | |
Их выпускают серийно | |
616 | |
00:24:31,969 --> 00:24:33,969 | |
буквально по десятку штук | |
617 | |
00:24:33,969 --> 00:24:35,969 | |
для супербогатейших | |
618 | |
00:24:35,969 --> 00:24:37,969 | |
миллиардеров нашего мира. | |
619 | |
00:24:37,969 --> 00:24:39,969 | |
И вот на такой тачке | |
620 | |
00:24:39,969 --> 00:24:40,969 | |
застукали Альтмана. | |
621 | |
00:24:40,969 --> 00:24:41,969 | |
Если что, у него Regera. | |
622 | |
00:24:41,969 --> 00:24:42,969 | |
Я посмотрел в интернете, | |
623 | |
00:24:42,969 --> 00:24:43,969 | |
когда выпускались Regera. | |
624 | |
00:24:43,969 --> 00:24:45,969 | |
С 16 по 22 год. | |
625 | |
00:24:45,969 --> 00:24:47,969 | |
85 штук их выпустили. | |
626 | |
00:24:47,969 --> 00:24:48,969 | |
Они все раскуплены. | |
627 | |
00:24:48,969 --> 00:24:50,969 | |
Сейчас продавались они | |
628 | |
00:24:50,969 --> 00:24:51,969 | |
по миллиону долларов. | |
629 | |
00:24:51,969 --> 00:24:53,969 | |
Последнюю Regera на аукционе | |
630 | |
00:24:53,969 --> 00:24:55,969 | |
продали примерно за 6 миллионов долларов. | |
631 | |
00:24:55,969 --> 00:24:56,969 | |
Угу. | |
632 | |
00:24:57,969 --> 00:24:58,969 | |
Ну, слушай, | |
633 | |
00:24:58,969 --> 00:25:00,969 | |
что вот мы на человека наговариваем? | |
634 | |
00:25:00,969 --> 00:25:02,969 | |
А может, он в каршеринге взял? | |
635 | |
00:25:02,969 --> 00:25:04,969 | |
Да-да, или другу хотел погонять, да? | |
636 | |
00:25:04,969 --> 00:25:06,969 | |
Есть каршеринг для миллиардеров. | |
637 | |
00:25:06,969 --> 00:25:07,969 | |
Каршеринг для миллиардеров. | |
638 | |
00:25:07,969 --> 00:25:09,969 | |
Ты вставишь приложение, да, и... | |
639 | |
00:25:09,969 --> 00:25:11,969 | |
Но вы посмотрите этот видос. | |
640 | |
00:25:11,969 --> 00:25:13,969 | |
Ты не посмотрел этот видос? | |
641 | |
00:25:13,969 --> 00:25:14,969 | |
Я посмотрел этот видос, да. | |
642 | |
00:25:14,969 --> 00:25:15,969 | |
Но это же смешно. | |
643 | |
00:25:15,969 --> 00:25:17,969 | |
Он там реально такой, типа, | |
644 | |
00:25:17,969 --> 00:25:19,969 | |
я вас не знаю, идите. | |
645 | |
00:25:19,969 --> 00:25:21,969 | |
Не мешает. | |
646 | |
00:25:23,969 --> 00:25:25,969 | |
Нет, ну а что прицепились к человеку? | |
647 | |
00:25:25,969 --> 00:25:27,969 | |
Ну, богатый человек, ну и что? | |
648 | |
00:25:27,969 --> 00:25:29,969 | |
Ну, смотри, там чел просто на улице идет | |
649 | |
00:25:29,969 --> 00:25:31,969 | |
и на телефон снимает Альтмана в машине. | |
650 | |
00:25:31,969 --> 00:25:33,969 | |
Ну, это же нормально, | |
651 | |
00:25:33,969 --> 00:25:34,969 | |
когда, ну, ладно. | |
652 | |
00:25:34,969 --> 00:25:36,969 | |
Ну, не знаю, я бы так, наверное, | |
653 | |
00:25:36,969 --> 00:25:37,969 | |
не реагировал, если бы меня на телефон. | |
654 | |
00:25:37,969 --> 00:25:39,969 | |
Хотя, ну, он суперзвезда. | |
655 | |
00:25:39,969 --> 00:25:41,969 | |
Ну, это логично, что я буду снимать. | |
656 | |
00:25:41,969 --> 00:25:43,969 | |
Ну, мог бы махать ручкой хотя бы | |
657 | |
00:25:43,969 --> 00:25:44,969 | |
из машины, улыбнуться. | |
658 | |
00:25:44,969 --> 00:25:46,969 | |
А так он еще выглядел так, будто бы | |
659 | |
00:25:46,969 --> 00:25:48,969 | |
он как-то совсем плохо выглядел. | |
660 | |
00:25:48,969 --> 00:25:50,969 | |
Странно. | |
661 | |
00:25:50,969 --> 00:25:52,969 | |
Ну, в общем, Сэм Альтман, блин. | |
662 | |
00:25:52,969 --> 00:25:54,969 | |
Сэм Альтман, у вас в компании надо | |
663 | |
00:25:54,969 --> 00:25:56,969 | |
деньги Майкрософту отдавать, а ты на этих, | |
664 | |
00:25:56,969 --> 00:25:58,969 | |
на Реджерах каршеринговых ездишь. | |
665 | |
00:25:58,969 --> 00:25:59,969 | |
Ну, ты шо? Не надо. | |
666 | |
00:25:59,969 --> 00:26:01,969 | |
Майкрософту же все выгнали. | |
667 | |
00:26:01,969 --> 00:26:02,969 | |
Угу. | |
668 | |
00:26:02,969 --> 00:26:03,969 | |
Из совета директоров. | |
669 | |
00:26:03,969 --> 00:26:05,969 | |
Хотя, деньги вернуть все равно придется. | |
670 | |
00:26:05,969 --> 00:26:07,969 | |
Ну, посмотрим, что дальше будет. | |
671 | |
00:26:09,969 --> 00:26:11,969 | |
Кстати, фотку эту видел, | |
672 | |
00:26:11,969 --> 00:26:13,969 | |
скидывал в наш сценарий. | |
673 | |
00:26:13,969 --> 00:26:15,969 | |
И Сэм Альтман в машине, | |
674 | |
00:26:15,969 --> 00:26:17,969 | |
и чувак в машине из сериала. | |
675 | |
00:26:18,969 --> 00:26:20,969 | |
Академия Амбрелла. | |
676 | |
00:26:20,969 --> 00:26:21,969 | |
Академия Амбрелла, да. | |
677 | |
00:26:21,969 --> 00:26:23,969 | |
Вот этот мальчик, который в детском теле | |
678 | |
00:26:23,969 --> 00:26:24,969 | |
взрослый, суперумный. | |
679 | |
00:26:24,969 --> 00:26:25,969 | |
Да, да, да. | |
680 | |
00:26:25,969 --> 00:26:26,969 | |
Очень похоже. | |
681 | |
00:26:26,969 --> 00:26:27,969 | |
Мем такой. | |
682 | |
00:26:27,969 --> 00:26:28,969 | |
Да. | |
683 | |
00:26:28,969 --> 00:26:29,969 | |
Мем? | |
684 | |
00:26:30,969 --> 00:26:31,969 | |
Какой? | |
685 | |
00:26:31,969 --> 00:26:33,969 | |
Ну, мем, где мальчик этот в машине едет, | |
686 | |
00:26:33,969 --> 00:26:35,969 | |
всматривается. | |
687 | |
00:26:35,969 --> 00:26:36,969 | |
Да? | |
688 | |
00:26:36,969 --> 00:26:37,969 | |
Да, да, да. | |
689 | |
00:26:39,969 --> 00:26:40,969 | |
Окей. | |
690 | |
00:26:40,969 --> 00:26:43,969 | |
И сразу же после разговоров | |
691 | |
00:26:43,969 --> 00:26:45,969 | |
про крутую тачку из Сэма Альтмана, | |
692 | |
00:26:45,969 --> 00:26:46,969 | |
можно поговорить про то, | |
693 | |
00:26:46,969 --> 00:26:48,969 | |
сколько таки зарабатывает OpenAI? | |
694 | |
00:26:48,969 --> 00:26:49,969 | |
Угу. | |
695 | |
00:26:51,969 --> 00:26:54,969 | |
Ревенью в 3-4 миллиарда. | |
696 | |
00:26:56,969 --> 00:26:58,969 | |
3-4 миллиарда в год, получается, да? | |
697 | |
00:26:58,969 --> 00:26:59,969 | |
Да, да, да. | |
698 | |
00:27:01,969 --> 00:27:04,969 | |
Ну, может себе позволить, получается, я считаю. | |
699 | |
00:27:04,969 --> 00:27:05,969 | |
Получается, одну тысячную. | |
700 | |
00:27:05,969 --> 00:27:07,969 | |
Забрал тачку себе купил, да? | |
701 | |
00:27:07,969 --> 00:27:08,969 | |
Да. | |
702 | |
00:27:08,969 --> 00:27:09,969 | |
Ну, если купил. | |
703 | |
00:27:09,969 --> 00:27:10,969 | |
Такую тачку. | |
704 | |
00:27:10,969 --> 00:27:12,969 | |
Это там, короче, сделали независимый подсчет | |
705 | |
00:27:12,969 --> 00:27:14,969 | |
заработка OpenAI по косвенным данным. | |
706 | |
00:27:14,969 --> 00:27:15,969 | |
Угу. | |
707 | |
00:27:15,969 --> 00:27:16,969 | |
Одна из компаний. | |
708 | |
00:27:16,969 --> 00:27:19,969 | |
И там забавная цифра, на самом деле. | |
709 | |
00:27:19,969 --> 00:27:21,969 | |
То, что 3-4 миллиарда в год, это ладно. | |
710 | |
00:27:21,969 --> 00:27:23,969 | |
По ним сложно оценивать. | |
711 | |
00:27:24,969 --> 00:27:26,969 | |
Но вот то, что у них основной заработок | |
712 | |
00:27:26,969 --> 00:27:28,969 | |
с пользователей GPT+. | |
713 | |
00:27:28,969 --> 00:27:30,969 | |
Не САПи, не САПи, | |
714 | |
00:27:30,969 --> 00:27:32,969 | |
а с подписок 55%. | |
715 | |
00:27:32,969 --> 00:27:33,969 | |
Не САПи, не САПи. | |
716 | |
00:27:33,969 --> 00:27:36,969 | |
Ревенью это подписки на GPT+. | |
717 | |
00:27:38,969 --> 00:27:40,969 | |
Причем, более того, | |
718 | |
00:27:41,969 --> 00:27:44,969 | |
всего около 8 миллионов пользователей | |
719 | |
00:27:44,969 --> 00:27:46,969 | |
генерируют эту прибыль. | |
720 | |
00:27:46,969 --> 00:27:49,969 | |
То есть, из 8 миллиардов, 8 миллионов. | |
721 | |
00:27:49,969 --> 00:27:52,969 | |
Это значит, что очень есть куда расти. | |
722 | |
00:27:54,969 --> 00:27:55,969 | |
Мне кажется. | |
723 | |
00:27:55,969 --> 00:27:56,969 | |
Еще как. | |
724 | |
00:27:56,969 --> 00:27:58,969 | |
То есть, развиваться есть куда. | |
725 | |
00:27:58,969 --> 00:28:00,969 | |
Ну и да, 55% мы с вами, | |
726 | |
00:28:00,969 --> 00:28:02,969 | |
у самого Альтмана, на его | |
727 | |
00:28:02,969 --> 00:28:03,969 | |
красивые листы. | |
728 | |
00:28:03,969 --> 00:28:04,969 | |
Скинулись, да, на его Koenigsegg. | |
729 | |
00:28:04,969 --> 00:28:05,969 | |
За скидку. | |
730 | |
00:28:05,969 --> 00:28:06,969 | |
Koenigsegg. | |
731 | |
00:28:07,969 --> 00:28:08,969 | |
Керби. | |
732 | |
00:28:08,969 --> 00:28:09,969 | |
Керби, фирби, да. | |
733 | |
00:28:09,969 --> 00:28:10,969 | |
Загонатели. | |
734 | |
00:28:10,969 --> 00:28:11,969 | |
Фирби. | |
735 | |
00:28:11,969 --> 00:28:13,969 | |
21% они зарабатывают | |
736 | |
00:28:13,969 --> 00:28:15,969 | |
с ChatGPT Enterprise, | |
737 | |
00:28:15,969 --> 00:28:17,969 | |
то есть, бизнесом продают. | |
738 | |
00:28:17,969 --> 00:28:18,969 | |
И вот это странно тоже, | |
739 | |
00:28:18,969 --> 00:28:20,969 | |
потому что они так пиарились. | |
740 | |
00:28:20,969 --> 00:28:22,969 | |
Везде этот ChatGPT в эйзюрах, | |
741 | |
00:28:22,969 --> 00:28:24,969 | |
точнее, GPT в эйзюрах, | |
742 | |
00:28:24,969 --> 00:28:26,969 | |
в углах, везде он сидит, | |
743 | |
00:28:26,969 --> 00:28:28,969 | |
а генерируют всего лишь 21% прибыли. | |
744 | |
00:28:28,969 --> 00:28:31,969 | |
Примерно 1-2 миллиона долларов. | |
745 | |
00:28:31,969 --> 00:28:33,969 | |
Я вообще думал, что основные статьи дохода | |
746 | |
00:28:33,969 --> 00:28:36,969 | |
будут как раз не подписка, | |
747 | |
00:28:36,969 --> 00:28:39,969 | |
а API и вот эти вот Enterprise истории. | |
748 | |
00:28:39,969 --> 00:28:40,969 | |
Но нет. | |
749 | |
00:28:40,969 --> 00:28:42,969 | |
Нифига подобного. | |
750 | |
00:28:42,969 --> 00:28:43,969 | |
Я тоже думал, что Enterprise, | |
751 | |
00:28:43,969 --> 00:28:44,969 | |
потом API, а потом подписка. | |
752 | |
00:28:44,969 --> 00:28:45,969 | |
Оказалось, что наоборот. | |
753 | |
00:28:45,969 --> 00:28:47,969 | |
Подписка — 21%, | |
754 | |
00:28:47,969 --> 00:28:48,969 | |
Enterprise — 15%, | |
755 | |
00:28:48,969 --> 00:28:50,969 | |
API — и 8%. | |
756 | |
00:28:50,969 --> 00:28:51,969 | |
Что меня тоже удивило, | |
757 | |
00:28:51,969 --> 00:28:53,969 | |
это GPT Team внезапно. | |
758 | |
00:28:53,969 --> 00:28:55,969 | |
Потому что я Team пользовался, | |
759 | |
00:28:55,969 --> 00:28:57,969 | |
я не понял юскейса вообще | |
760 | |
00:28:57,969 --> 00:28:58,969 | |
этой подписки, | |
761 | |
00:28:58,969 --> 00:28:59,969 | |
когда ты просто покупаешь | |
762 | |
00:28:59,969 --> 00:29:00,969 | |
дополнительные доступы | |
763 | |
00:29:00,969 --> 00:29:02,969 | |
для людей в команде, | |
764 | |
00:29:02,969 --> 00:29:03,969 | |
и у вас там практически | |
765 | |
00:29:03,969 --> 00:29:04,969 | |
ничего командного нет. | |
766 | |
00:29:04,969 --> 00:29:06,969 | |
Тем не менее, эта штука генерирует | |
767 | |
00:29:06,969 --> 00:29:08,969 | |
290 миллионов. | |
768 | |
00:29:08,969 --> 00:29:10,969 | |
Ну, там, наверное, | |
769 | |
00:29:10,969 --> 00:29:11,969 | |
это аппроксимировали, | |
770 | |
00:29:11,969 --> 00:29:13,969 | |
потому что Team-то появился | |
771 | |
00:29:13,969 --> 00:29:15,969 | |
относительно недавно. | |
772 | |
00:29:15,969 --> 00:29:17,969 | |
Короче, странно это все. | |
773 | |
00:29:17,969 --> 00:29:19,969 | |
Странно. | |
774 | |
00:29:19,969 --> 00:29:21,969 | |
980 тысяч чуваков | |
775 | |
00:29:21,969 --> 00:29:23,969 | |
в Team сидят в подписке. | |
776 | |
00:29:23,969 --> 00:29:25,969 | |
Кто эти люди? | |
777 | |
00:29:25,969 --> 00:29:27,969 | |
Может, случайно нажали. | |
778 | |
00:29:27,969 --> 00:29:29,969 | |
Хотя... | |
779 | |
00:29:29,969 --> 00:29:32,969 | |
Там можно промахнуться. | |
780 | |
00:29:32,969 --> 00:29:34,969 | |
Короче, вот такая история. | |
781 | |
00:29:34,969 --> 00:29:36,969 | |
И совершенно понятно, | |
782 | |
00:29:36,969 --> 00:29:38,969 | |
откуда у дорогого Сэма | |
783 | |
00:29:38,969 --> 00:29:40,969 | |
деньги на дорогую тачку. | |
784 | |
00:29:40,969 --> 00:29:42,969 | |
А может быть, это не Сэм | |
785 | |
00:29:42,969 --> 00:29:43,969 | |
на дорогой тачке ездит? | |
786 | |
00:29:43,969 --> 00:29:45,969 | |
Может, это его сгенерили? | |
787 | |
00:29:45,969 --> 00:29:47,969 | |
Думаешь? | |
788 | |
00:29:47,969 --> 00:29:49,969 | |
В физическом мире? | |
789 | |
00:29:49,969 --> 00:29:50,969 | |
В смысле? | |
790 | |
00:29:50,969 --> 00:29:51,969 | |
Ну, просто взяли, | |
791 | |
00:29:51,969 --> 00:29:52,969 | |
ссоры сгенерили, и все. | |
792 | |
00:29:52,969 --> 00:29:54,969 | |
Сэм Альтман ездит в той машине. | |
793 | |
00:29:54,969 --> 00:29:56,969 | |
Нет, а там слишком плохое видео | |
794 | |
00:29:56,969 --> 00:29:58,969 | |
для генерации. | |
795 | |
00:29:58,969 --> 00:30:00,969 | |
Мне кажется, пока что | |
796 | |
00:30:00,969 --> 00:30:02,969 | |
Сора так не умеет. | |
797 | |
00:30:02,969 --> 00:30:04,969 | |
Сора слишком хорошие видосы делает, | |
798 | |
00:30:04,969 --> 00:30:06,969 | |
судя по примерам. | |
799 | |
00:30:06,969 --> 00:30:08,969 | |
Ладно, хватит с OpenAI, да? | |
800 | |
00:30:08,969 --> 00:30:10,969 | |
Ладно, да. | |
801 | |
00:30:10,969 --> 00:30:12,969 | |
Но у нас пока что все будет про бабки. | |
802 | |
00:30:12,969 --> 00:30:14,969 | |
Мы продолжим разговор | |
803 | |
00:30:14,969 --> 00:30:16,969 | |
с компанией, | |
804 | |
00:30:16,969 --> 00:30:17,969 | |
с еще одной большой рыбой, | |
805 | |
00:30:17,969 --> 00:30:19,969 | |
компанией Stability.ai. | |
806 | |
00:30:19,969 --> 00:30:21,969 | |
Stability.ai наняли себе | |
807 | |
00:30:21,969 --> 00:30:23,969 | |
нового директора, | |
808 | |
00:30:23,969 --> 00:30:25,969 | |
которого, видимо, есть калькулятор. | |
809 | |
00:30:25,969 --> 00:30:27,969 | |
Судя по | |
810 | |
00:30:27,969 --> 00:30:29,969 | |
новости. | |
811 | |
00:30:30,969 --> 00:30:32,969 | |
Может, чувак понял, что... | |
812 | |
00:30:32,969 --> 00:30:34,969 | |
Может, он просто этим айпадом пользуется, и там | |
813 | |
00:30:34,969 --> 00:30:36,969 | |
новый калькулятор вышел. | |
814 | |
00:30:36,969 --> 00:30:38,969 | |
А, да, он МЭС, да, написал, там, | |
815 | |
00:30:38,969 --> 00:30:40,969 | |
с Тилусом. Короче, | |
816 | |
00:30:40,969 --> 00:30:42,969 | |
чуваки поняли, что на опенсорсе | |
817 | |
00:30:42,969 --> 00:30:44,969 | |
видимо, особо не заработаешь, | |
818 | |
00:30:44,969 --> 00:30:46,969 | |
поэтому теперь Stable Diffusion 3, | |
819 | |
00:30:46,969 --> 00:30:48,969 | |
который будет | |
820 | |
00:30:48,969 --> 00:30:50,969 | |
использоваться в бизнесах с | |
821 | |
00:30:50,969 --> 00:30:52,969 | |
ревенью больше миллиона баксов, | |
822 | |
00:30:52,969 --> 00:30:54,969 | |
на него нужно будет покупать лицензию. | |
823 | |
00:30:54,969 --> 00:30:56,969 | |
Да, это | |
824 | |
00:30:56,969 --> 00:30:58,969 | |
кажется... | |
825 | |
00:30:59,969 --> 00:31:01,969 | |
Кстати, да, | |
826 | |
00:31:01,969 --> 00:31:03,969 | |
ты прям хорошо заметил, с Ламой у нас | |
827 | |
00:31:03,969 --> 00:31:05,969 | |
точно такая же модель. Он тоже | |
828 | |
00:31:05,969 --> 00:31:07,969 | |
от ревенью считается, когда лицензия нужна будет. | |
829 | |
00:31:07,969 --> 00:31:09,969 | |
В принципе, ожидаемо. | |
830 | |
00:31:09,969 --> 00:31:11,969 | |
Просто странно даже, что они так | |
831 | |
00:31:11,969 --> 00:31:13,969 | |
долго тянулись тем, чтобы сделать | |
832 | |
00:31:13,969 --> 00:31:15,969 | |
свою мощнейшую модель платной для коммерческого | |
833 | |
00:31:15,969 --> 00:31:17,969 | |
использования. А один миллион ревенью в год | |
834 | |
00:31:17,969 --> 00:31:19,969 | |
так-то это... | |
835 | |
00:31:19,969 --> 00:31:21,969 | |
Это такой... | |
836 | |
00:31:21,969 --> 00:31:23,969 | |
Малый интерес средний бизнес. Это не то, чтобы прям много. | |
837 | |
00:31:25,969 --> 00:31:27,969 | |
Да, это же даже | |
838 | |
00:31:27,969 --> 00:31:29,969 | |
доход, это выручка. | |
839 | |
00:31:31,969 --> 00:31:33,969 | |
И причем они не говорят, сколько | |
840 | |
00:31:33,969 --> 00:31:35,969 | |
надо будет платить, какой-то там процент | |
841 | |
00:31:35,969 --> 00:31:37,969 | |
или нет. Они говорят, что просто, если у вас | |
842 | |
00:31:37,969 --> 00:31:39,969 | |
больше ревенью, вы нам напишите. | |
843 | |
00:31:39,969 --> 00:31:41,969 | |
Мы там разберемся. | |
844 | |
00:31:43,969 --> 00:31:45,969 | |
Мы там в калькуляторе посчитаемся. | |
845 | |
00:31:47,969 --> 00:31:49,969 | |
Да, ну вот, теперь... | |
846 | |
00:31:49,969 --> 00:31:51,969 | |
Ну, ладно. Я, в принципе, | |
847 | |
00:31:51,969 --> 00:31:53,969 | |
на своем компе Stable Diffusion 3 запустить | |
848 | |
00:31:53,969 --> 00:31:55,969 | |
не так не мог. А если бы смог, конечно, | |
849 | |
00:31:55,969 --> 00:31:57,969 | |
у меня было бы больше миллиона ревенью. | |
850 | |
00:31:57,969 --> 00:31:59,969 | |
Я абсолютно в этом уверен. | |
851 | |
00:31:59,969 --> 00:32:01,969 | |
Будем надеяться, | |
852 | |
00:32:01,969 --> 00:32:03,969 | |
что это поможет компании выжить. | |
853 | |
00:32:05,969 --> 00:32:07,969 | |
Ну, вообще, да. Мы туржем | |
854 | |
00:32:07,969 --> 00:32:09,969 | |
над стабилитей | |
855 | |
00:32:09,969 --> 00:32:11,969 | |
и над тем, что они такие нестабильные. | |
856 | |
00:32:11,969 --> 00:32:13,969 | |
Но, честно говоря, | |
857 | |
00:32:13,969 --> 00:32:15,969 | |
будет грустно, если они закроются. | |
858 | |
00:32:15,969 --> 00:32:17,969 | |
Ну, слушай, они же на подписках | |
859 | |
00:32:17,969 --> 00:32:19,969 | |
пытались зарабатывать. У них же есть там подписка | |
860 | |
00:32:19,969 --> 00:32:21,969 | |
и какая-то даже опишка у них есть. | |
861 | |
00:32:21,969 --> 00:32:23,969 | |
Да, подписки до сих пор есть. | |
862 | |
00:32:23,969 --> 00:32:25,969 | |
Так что, ну, видимо, | |
863 | |
00:32:25,969 --> 00:32:27,969 | |
не сходится. Вообще, у нас будет | |
864 | |
00:32:27,969 --> 00:32:29,969 | |
в конце выйти статья про то, что это все | |
865 | |
00:32:29,969 --> 00:32:31,969 | |
большой пузырь вокруг ИАЯ. | |
866 | |
00:32:31,969 --> 00:32:33,969 | |
Там прям будет очень хорошо понятно, | |
867 | |
00:32:33,969 --> 00:32:35,969 | |
что не все так хорошо и OpenAI. | |
868 | |
00:32:35,969 --> 00:32:37,969 | |
И, может быть, | |
869 | |
00:32:37,969 --> 00:32:39,969 | |
может так оказаться, что | |
870 | |
00:32:39,969 --> 00:32:41,969 | |
OpenAI | |
871 | |
00:32:41,969 --> 00:32:43,969 | |
делает сильно неправильно, | |
872 | |
00:32:43,969 --> 00:32:45,969 | |
в отличие от Stability AI. То есть Stability AI | |
873 | |
00:32:45,969 --> 00:32:47,969 | |
очевидно пытаются выйти в ноль. | |
874 | |
00:32:47,969 --> 00:32:49,969 | |
А там какие-нибудь крупные игроки, типа | |
875 | |
00:32:49,969 --> 00:32:51,969 | |
OpenAI, Anthropica, они, в принципе, пока что | |
876 | |
00:32:51,969 --> 00:32:53,969 | |
просто набирают пользовательскую базу. | |
877 | |
00:32:53,969 --> 00:32:55,969 | |
Поехали дальше? | |
878 | |
00:32:55,969 --> 00:32:57,969 | |
Поехали, поехали | |
879 | |
00:32:57,969 --> 00:32:59,969 | |
дальше. Да, у нас дальше Google. | |
880 | |
00:32:59,969 --> 00:33:01,969 | |
Google, | |
881 | |
00:33:01,969 --> 00:33:03,969 | |
более того, Google DeepMind. | |
882 | |
00:33:03,969 --> 00:33:05,969 | |
Угу. | |
883 | |
00:33:05,969 --> 00:33:07,969 | |
Та часть Google, над которой мы | |
884 | |
00:33:07,969 --> 00:33:09,969 | |
стараемся не ржать. | |
885 | |
00:33:09,969 --> 00:33:11,969 | |
Мы бы даже, если бы хотели, у нас бы | |
886 | |
00:33:11,969 --> 00:33:13,969 | |
навряд ли получилось. | |
887 | |
00:33:13,969 --> 00:33:15,969 | |
Но в этот раз они сделали нелую штуку. | |
888 | |
00:33:17,969 --> 00:33:19,969 | |
Короче, | |
889 | |
00:33:19,969 --> 00:33:21,969 | |
сделали, ребята. | |
890 | |
00:33:21,969 --> 00:33:23,969 | |
Короче, взяли свою G-mini | |
891 | |
00:33:23,969 --> 00:33:25,969 | |
полторашку, | |
892 | |
00:33:25,969 --> 00:33:27,969 | |
моцную. | |
893 | |
00:33:27,969 --> 00:33:29,969 | |
Кто понял, тот понял. | |
894 | |
00:33:29,969 --> 00:33:31,969 | |
И | |
895 | |
00:33:31,969 --> 00:33:33,969 | |
присобачили туда | |
896 | |
00:33:33,969 --> 00:33:35,969 | |
систему Mobility Vision | |
897 | |
00:33:35,969 --> 00:33:37,969 | |
Language Analyze. | |
898 | |
00:33:37,969 --> 00:33:39,969 | |
И так вот | |
899 | |
00:33:39,969 --> 00:33:41,969 | |
контекст у G-mini полторашки прям | |
900 | |
00:33:41,969 --> 00:33:43,969 | |
очень здоровенный. Туда | |
901 | |
00:33:43,969 --> 00:33:45,969 | |
все данные с вот этой Mobility VLA | |
902 | |
00:33:45,969 --> 00:33:47,969 | |
помещаются. В общем, | |
903 | |
00:33:47,969 --> 00:33:49,969 | |
все получилось. Строили это все в робота. | |
904 | |
00:33:49,969 --> 00:33:51,969 | |
Смешного, кстати, робота. Можете посмотреть | |
905 | |
00:33:51,969 --> 00:33:53,969 | |
по ссылке. | |
906 | |
00:33:53,969 --> 00:33:55,969 | |
Как будто бы его сделали из | |
907 | |
00:33:55,969 --> 00:33:57,969 | |
технических... | |
908 | |
00:33:57,969 --> 00:33:59,969 | |
И этому роботу просто провели | |
909 | |
00:33:59,969 --> 00:34:01,969 | |
экскурсию по офису. | |
910 | |
00:34:01,969 --> 00:34:03,969 | |
Ходил человек, прям голосом рассказывал, | |
911 | |
00:34:03,969 --> 00:34:05,969 | |
что, где находится, в какой комнате. | |
912 | |
00:34:05,969 --> 00:34:07,969 | |
Этот робот это все анализировал, загружал | |
913 | |
00:34:07,969 --> 00:34:09,969 | |
в G-mini и после одной экскурсии | |
914 | |
00:34:09,969 --> 00:34:11,969 | |
полноценно мог сам кататься, | |
915 | |
00:34:11,969 --> 00:34:13,969 | |
анализировать все вокруг. Короче, | |
916 | |
00:34:13,969 --> 00:34:15,969 | |
сделали | |
917 | |
00:34:15,969 --> 00:34:17,969 | |
систему навигации для | |
918 | |
00:34:17,969 --> 00:34:19,969 | |
бедных. | |
919 | |
00:34:19,969 --> 00:34:21,969 | |
Для бедных. Не очень-то для бедных. | |
920 | |
00:34:23,969 --> 00:34:25,969 | |
Я думаю, такая штука стоит | |
921 | |
00:34:25,969 --> 00:34:27,969 | |
много денег сейчас. | |
922 | |
00:34:27,969 --> 00:34:29,969 | |
Выглядит хорошо. | |
923 | |
00:34:29,969 --> 00:34:31,969 | |
DeepMind молодцы. | |
924 | |
00:34:31,969 --> 00:34:33,969 | |
Вперед. Я такого робота | |
925 | |
00:34:33,969 --> 00:34:35,969 | |
себе покупать не буду. Ты будешь покупать себе | |
926 | |
00:34:35,969 --> 00:34:37,969 | |
такого робота? Не, я пока | |
927 | |
00:34:37,969 --> 00:34:39,969 | |
подожду следующей версии, Леш. | |
928 | |
00:34:39,969 --> 00:34:41,969 | |
Ну, хорошо. Но выглядит он | |
929 | |
00:34:41,969 --> 00:34:43,969 | |
как ездящая тентакля. | |
930 | |
00:34:43,969 --> 00:34:45,969 | |
Да. | |
931 | |
00:34:45,969 --> 00:34:47,969 | |
У нас там еще будет новость | |
932 | |
00:34:47,969 --> 00:34:49,969 | |
про опенсорсного робота, ребят, для тех, | |
933 | |
00:34:49,969 --> 00:34:51,969 | |
кто не хочет покупать робота | |
934 | |
00:34:51,969 --> 00:34:53,969 | |
от DeepMind, который пока, собственно говоря, | |
935 | |
00:34:53,969 --> 00:34:55,969 | |
и не продается. | |
936 | |
00:34:55,969 --> 00:34:57,969 | |
Да. А еще уже не DeepMind, | |
937 | |
00:34:57,969 --> 00:34:59,969 | |
а просто Google начал раскатывать | |
938 | |
00:34:59,969 --> 00:35:01,969 | |
бета-версию нового Хрома, в которой | |
939 | |
00:35:01,969 --> 00:35:03,969 | |
встроена G-mini Nano. Прям можно | |
940 | |
00:35:03,969 --> 00:35:05,969 | |
из консоли | |
941 | |
00:35:05,969 --> 00:35:07,969 | |
эту G-mini Nano использовать, | |
942 | |
00:35:07,969 --> 00:35:09,969 | |
а можно даже не из консоли, можно даже | |
943 | |
00:35:09,969 --> 00:35:11,969 | |
какие-то приложеньки там прям в консоли | |
944 | |
00:35:11,969 --> 00:35:13,969 | |
написать. | |
945 | |
00:35:13,969 --> 00:35:15,969 | |
В общем-то, работает она локально. | |
946 | |
00:35:15,969 --> 00:35:17,969 | |
И надо сказать, работает хорошо. | |
947 | |
00:35:17,969 --> 00:35:19,969 | |
G-mini Nano, хоть самая маленькая модель, | |
948 | |
00:35:19,969 --> 00:35:21,969 | |
но отрабатывает прям неплохо. | |
949 | |
00:35:21,969 --> 00:35:23,969 | |
Так что вот он уже. | |
950 | |
00:35:23,969 --> 00:35:25,969 | |
Я посмотрел, как проверяют. | |
951 | |
00:35:26,949 --> 00:35:28,949 | |
Я не сильно большой любитель хрома. | |
952 | |
00:35:33,949 --> 00:35:36,949 | |
Алё, чё прикольного, говорю? Чё ты завис? | |
953 | |
00:35:37,949 --> 00:35:40,949 | |
А ты у меня тоже был такой, ты мне сказал, чё там за риск? | |
954 | |
00:35:40,949 --> 00:35:43,949 | |
Да ё-моё, блин, что с интернетом у тебя? | |
955 | |
00:35:44,949 --> 00:35:47,949 | |
У меня 4G, самый замечательный интернет в мире. | |
956 | |
00:35:49,949 --> 00:35:50,949 | |
Orange, я полагаю. | |
957 | |
00:35:50,949 --> 00:35:56,949 | |
Ну чё прикольного? У тебя локально вообще без всяких танцев с бубном запускается ЛМ-ка, | |
958 | |
00:35:56,949 --> 00:35:59,949 | |
которая может тебе там поотвечать про столицы мира, поговорить с тобой, | |
959 | |
00:35:59,949 --> 00:36:01,949 | |
может даже где-то код немножко поправить. | |
960 | |
00:36:01,949 --> 00:36:03,949 | |
Всё это работает локально в оффлайне. | |
961 | |
00:36:04,949 --> 00:36:07,949 | |
Как это использовать, прям пока непонятно. | |
962 | |
00:36:07,949 --> 00:36:12,949 | |
Наверняка мы в каких-то новых версиях хрома увидим какие-нибудь саморезаторы на Gemini Nano. | |
963 | |
00:36:13,949 --> 00:36:14,949 | |
Но в принципе прикольно. | |
964 | |
00:36:15,949 --> 00:36:18,949 | |
Прикольно, что в продуктах появляются ЛМ-ки, работающие локально, | |
965 | |
00:36:18,949 --> 00:36:21,949 | |
и которые могут запускаться чуть ли не на утюге. | |
966 | |
00:36:23,949 --> 00:36:24,949 | |
Вот такой вывод. | |
967 | |
00:36:24,949 --> 00:36:29,949 | |
Ну, я думаю, что... Как думаешь, дождёмся мы в ближайшем будущем ЛМ-ок на утюге? | |
968 | |
00:36:30,949 --> 00:36:33,949 | |
Да, конечно, как же утюг без ЛМ-ки? Ты что? | |
969 | |
00:36:34,949 --> 00:36:36,949 | |
Разговаривать с утюгом же надо. | |
970 | |
00:36:36,949 --> 00:36:38,949 | |
Зачем эти колёсики? Я вообще не понимаю. | |
971 | |
00:36:38,949 --> 00:36:40,949 | |
Эти колёсики в утюгах — это ад. | |
972 | |
00:36:40,949 --> 00:36:44,949 | |
Вот для меня это ад, потому что там постоянно просто какие-то точечки, | |
973 | |
00:36:44,949 --> 00:36:47,949 | |
какие-то циферки, на одежде какие-то циферки. | |
974 | |
00:36:47,949 --> 00:36:49,949 | |
Я никогда не понимаю, как это надо крутить. | |
975 | |
00:36:49,949 --> 00:36:53,949 | |
Когда у меня вот эта колёсика случайно рукой задевается и скручивается, у меня паника. | |
976 | |
00:36:54,949 --> 00:36:57,949 | |
Не от того, чтобы ему камеру и Vision-модель, которая будет смотреть на штаны, | |
977 | |
00:36:57,949 --> 00:36:59,949 | |
и сама включать эту температуру. | |
978 | |
00:36:59,949 --> 00:37:00,949 | |
Конечно. | |
979 | |
00:37:00,949 --> 00:37:03,949 | |
Если ему что-то непонятно, он посмотрел и говорит, что-то я не понял. | |
980 | |
00:37:03,949 --> 00:37:04,949 | |
Переверни на обратную сторону. | |
981 | |
00:37:04,949 --> 00:37:06,949 | |
Преворачиваешь, говоришь, так, нормально? | |
982 | |
00:37:06,949 --> 00:37:07,949 | |
Он тебе говорит, да, нормально. | |
983 | |
00:37:07,949 --> 00:37:08,949 | |
Всё, считал, погнали. | |
984 | |
00:37:09,949 --> 00:37:11,949 | |
По-моему, в утюгах это самое... | |
985 | |
00:37:12,949 --> 00:37:17,949 | |
Ты никогда не оставишь его включённым, потому что он будет сам включаться. | |
986 | |
00:37:17,949 --> 00:37:20,949 | |
А если ты будешь плохо себя вести, то и сам включаться. | |
987 | |
00:37:20,949 --> 00:37:24,949 | |
Да, кстати, компания Rabbit, если вы хотите ещё денег заработать побольше, | |
988 | |
00:37:24,949 --> 00:37:27,949 | |
то можете выпустить утюги в партнёрстве с T-Nation Engineering, | |
989 | |
00:37:27,949 --> 00:37:29,949 | |
я вам даже занесу денег за это. | |
990 | |
00:37:29,949 --> 00:37:30,949 | |
Лёша купит. | |
991 | |
00:37:30,949 --> 00:37:31,949 | |
Я куплю. | |
992 | |
00:37:35,949 --> 00:37:38,949 | |
Да, ну, как-то так с Google. | |
993 | |
00:37:41,949 --> 00:37:42,949 | |
Так, что у нас ещё? | |
994 | |
00:37:42,949 --> 00:37:44,949 | |
Дальше у нас Amazon. | |
995 | |
00:37:46,949 --> 00:37:48,949 | |
Amazon у нас редкий гость, так сказать. | |
996 | |
00:37:49,949 --> 00:37:51,949 | |
Да, редкий гость, но рыба-то большая, | |
997 | |
00:37:51,949 --> 00:37:54,949 | |
и у нас написано в сценарии, что он хочет ворваться в айгонку, | |
998 | |
00:37:54,949 --> 00:37:57,949 | |
хотя на самом деле Amazon давно в айгонке. | |
999 | |
00:37:57,949 --> 00:37:58,949 | |
Да? | |
1000 | |
00:37:58,949 --> 00:38:00,949 | |
Со своим, как минимум, бедроком. | |
1001 | |
00:38:00,949 --> 00:38:01,949 | |
Точно? | |
1002 | |
00:38:01,949 --> 00:38:03,949 | |
Который мы давно видели, присутствует, да. | |
1003 | |
00:38:04,949 --> 00:38:09,949 | |
Но в чём особенность бедрока в том, что там особо не было своих моделей от Amazon, | |
1004 | |
00:38:09,949 --> 00:38:10,949 | |
насколько я помню. | |
1005 | |
00:38:10,949 --> 00:38:13,949 | |
Они в основном предоставляли доступ ко всяким ламам там и прочее. | |
1006 | |
00:38:14,949 --> 00:38:17,949 | |
Ну там было несколько, но какие-то совсем тестовые, непонятно их ли. | |
1007 | |
00:38:18,949 --> 00:38:20,949 | |
Да, особо их не использовали. | |
1008 | |
00:38:20,949 --> 00:38:27,949 | |
А сейчас ребята говорят, что работают над собственной мультимодалкой под названием Metis. | |
1009 | |
00:38:28,949 --> 00:38:29,949 | |
Такое себе название. | |
1010 | |
00:38:29,949 --> 00:38:33,949 | |
У нас в деревне метисами называли вот таких, смугленьких, как я. | |
1011 | |
00:38:35,949 --> 00:38:37,949 | |
Ну да, это и есть метис, как бы. | |
1012 | |
00:38:37,949 --> 00:38:38,949 | |
Да? Ну ладно. | |
1013 | |
00:38:40,949 --> 00:38:43,949 | |
Ну рассказывай, что там за метис такой, мультимодальный. | |
1014 | |
00:38:46,949 --> 00:38:49,949 | |
Мультимодальная модель, но по сути конкурент GPZ 4.0, | |
1015 | |
00:38:50,949 --> 00:38:55,949 | |
плюс обещают ещё возможность рага туда впикнуть, | |
1016 | |
00:38:55,949 --> 00:39:01,949 | |
для того чтобы можно было модельку подстраивать под свои нужды. | |
1017 | |
00:39:01,949 --> 00:39:05,949 | |
Потому что понятно, что это будет всё представляться, в первую очередь, в рамках AWS. | |
1018 | |
00:39:05,949 --> 00:39:09,949 | |
То есть вряд ли у этого даже будет какой-то чат специфический. | |
1019 | |
00:39:11,949 --> 00:39:14,949 | |
А если они всё-таки сделают своего чат-бота публичного? | |
1020 | |
00:39:14,949 --> 00:39:16,949 | |
Вот я прям бы удивился. | |
1021 | |
00:39:16,949 --> 00:39:19,949 | |
Уже подустали мы от этих чат-ботов, уже не знаешь, куда бежать. | |
1022 | |
00:39:20,949 --> 00:39:23,949 | |
То в Gemini, то в Cloud, да. | |
1023 | |
00:39:24,949 --> 00:39:25,949 | |
Ну посмотрим. | |
1024 | |
00:39:25,949 --> 00:39:28,949 | |
Это на самом деле хорошо, что все свои модели разрабатывают. | |
1025 | |
00:39:29,949 --> 00:39:31,949 | |
Мне на метис прям будет интересно посмотреть, | |
1026 | |
00:39:31,949 --> 00:39:35,949 | |
потому что у Amazon вроде дофига мощностей, чтобы заимпериментировать что-то новое, | |
1027 | |
00:39:35,949 --> 00:39:39,949 | |
а не переобучить какую-нибудь open-source ламу или что-то другое. | |
1028 | |
00:39:40,949 --> 00:39:41,949 | |
Так что будем следить. | |
1029 | |
00:39:42,949 --> 00:39:45,949 | |
А вот следующая компания у нас вообще, по-моему, не появляется. | |
1030 | |
00:39:45,949 --> 00:39:47,949 | |
Очень редко появляется. | |
1031 | |
00:39:47,949 --> 00:39:49,949 | |
Вот все мы знаем компанию NVIDIA. | |
1032 | |
00:39:49,949 --> 00:39:51,949 | |
Мало кто вспоминает про компанию AMD. | |
1033 | |
00:39:53,949 --> 00:39:56,949 | |
Ну мы в прошлом выпуске обсуждали, что там родственники работают, | |
1034 | |
00:39:56,949 --> 00:39:59,949 | |
что в NVIDIA, что в AMD, а в совете с директором. | |
1035 | |
00:39:59,949 --> 00:40:02,949 | |
В общем, можно сказать, дочерняя компания NVIDIA. | |
1036 | |
00:40:03,949 --> 00:40:06,949 | |
Не дочерняя, а племянничественная. | |
1037 | |
00:40:06,949 --> 00:40:07,949 | |
Племянничественная, да. | |
1038 | |
00:40:08,949 --> 00:40:12,949 | |
Купила крупнейшую в Европе лабораторию искусственного интеллекта. | |
1039 | |
00:40:12,949 --> 00:40:13,949 | |
Сайла А.И. | |
1040 | |
00:40:13,949 --> 00:40:16,949 | |
Кстати, Сайла классный сериал, просто по-криптически посмотрите. | |
1041 | |
00:40:16,949 --> 00:40:19,949 | |
Купила за 665 миллионов долларов. | |
1042 | |
00:40:19,949 --> 00:40:20,949 | |
Вот так вот. | |
1043 | |
00:40:21,949 --> 00:40:23,949 | |
И это что значит? | |
1044 | |
00:40:23,949 --> 00:40:28,949 | |
Это значит, что AMD не теряет надежды утереть нос своему дяде. | |
1045 | |
00:40:28,949 --> 00:40:30,949 | |
Всего AMD не теряет. | |
1046 | |
00:40:31,949 --> 00:40:33,949 | |
И что интересного там? | |
1047 | |
00:40:34,949 --> 00:40:37,949 | |
Ничего там не интересного, просто купили компанию, короче. | |
1048 | |
00:40:38,949 --> 00:40:39,949 | |
Так они... | |
1049 | |
00:40:40,949 --> 00:40:43,949 | |
Насколько ты знаешь подробности этой новости? | |
1050 | |
00:40:43,949 --> 00:40:44,949 | |
Они как бы... | |
1051 | |
00:40:44,949 --> 00:40:46,949 | |
Это для того, чтобы делать более эффективные карты? | |
1052 | |
00:40:47,949 --> 00:40:51,949 | |
Или они хотят сделать какое-то ответвление софтварное? | |
1053 | |
00:40:52,949 --> 00:40:55,949 | |
Не, я не думаю, что AMD будет делать софтварное ответвление. | |
1054 | |
00:40:55,949 --> 00:40:59,949 | |
Им бы процессоры не просрать, извините, конечно, за выражение. | |
1055 | |
00:40:59,949 --> 00:41:01,949 | |
Я думаю, что они будут... | |
1056 | |
00:41:01,949 --> 00:41:06,949 | |
Либо затачиваться под существующее решение, делать какие-то конкурентные штуки, | |
1057 | |
00:41:06,949 --> 00:41:09,949 | |
типа, не знаю, куд своих. | |
1058 | |
00:41:09,949 --> 00:41:12,949 | |
Либо они, может быть, может быть, | |
1059 | |
00:41:12,949 --> 00:41:13,949 | |
ну я, конечно, очень удивлюсь, | |
1060 | |
00:41:13,949 --> 00:41:17,949 | |
но может быть они посмотрят в сторону создания новых архитектур процессоров, | |
1061 | |
00:41:17,949 --> 00:41:19,949 | |
заточенных исключительно под AI. | |
1062 | |
00:41:19,949 --> 00:41:22,949 | |
Поэтому целую лабораторию искусственного интеллекта купили. | |
1063 | |
00:41:24,949 --> 00:41:28,949 | |
Потому что там в новости говорят, что в этой компании прям очень крутые инженеры сидят. | |
1064 | |
00:41:28,949 --> 00:41:30,949 | |
Типа, крутейшие. | |
1065 | |
00:41:32,949 --> 00:41:35,949 | |
Зачем им инженер крутые? | |
1066 | |
00:41:37,949 --> 00:41:38,949 | |
Именно вы, яя. | |
1067 | |
00:41:38,949 --> 00:41:41,949 | |
Это ж не хардварные чуваки, которые камушки пилить будут. | |
1068 | |
00:41:42,949 --> 00:41:43,949 | |
Ну да, кстати. | |
1069 | |
00:41:43,949 --> 00:41:44,949 | |
Чё-то на стыке. Чё-то на стыке. | |
1070 | |
00:41:44,949 --> 00:41:45,949 | |
Ну, будем следить. | |
1071 | |
00:41:45,949 --> 00:41:49,949 | |
Во всяком случае, я рад, что у AMD появляется... | |
1072 | |
00:41:49,949 --> 00:41:52,949 | |
Точнее, AMD пытается еще на плаву оставаться. | |
1073 | |
00:41:52,949 --> 00:41:56,949 | |
Именно в рынке яяных чипов. | |
1074 | |
00:41:56,949 --> 00:41:58,949 | |
Будем надеяться, что все у них получится. | |
1075 | |
00:41:59,949 --> 00:42:02,949 | |
А вот знаешь, что прошло совсем незаметно? | |
1076 | |
00:42:02,949 --> 00:42:06,949 | |
Еще более незаметно, чем то, что AMD у нас редко в больших рыбах появляется. | |
1077 | |
00:42:07,949 --> 00:42:10,949 | |
Наверное, это самая конференция Самсунга, да? | |
1078 | |
00:42:10,949 --> 00:42:11,949 | |
Да. | |
1079 | |
00:42:11,949 --> 00:42:13,949 | |
Ты знал, что она существует. | |
1080 | |
00:42:13,949 --> 00:42:14,949 | |
Я догадался. | |
1081 | |
00:42:14,949 --> 00:42:15,949 | |
Логично, что она существует, да. | |
1082 | |
00:42:15,949 --> 00:42:20,949 | |
Это самая конференция, которую никто не посмотрел. | |
1083 | |
00:42:21,949 --> 00:42:24,949 | |
Но на конференции, естественно, все сейчас показывают AI. | |
1084 | |
00:42:24,949 --> 00:42:26,949 | |
И Самсунг тоже показал AI. | |
1085 | |
00:42:26,949 --> 00:42:28,949 | |
Показали свои новые телефоны. | |
1086 | |
00:42:28,949 --> 00:42:31,949 | |
Показали нового помощника Galaxy AI. | |
1087 | |
00:42:32,949 --> 00:42:36,949 | |
Который будет там и переводы в онлайне делать в реальном времени. | |
1088 | |
00:42:36,949 --> 00:42:40,949 | |
И рисовать картинки и фотографии. | |
1089 | |
00:42:40,949 --> 00:42:42,949 | |
Редактировать с помощью AI. | |
1090 | |
00:42:42,949 --> 00:42:45,949 | |
И ассистент, который будет в заметках там что-то делать. | |
1091 | |
00:42:45,949 --> 00:42:48,949 | |
В общем, не показали ничего нового, одним словом, так-то. | |
1092 | |
00:42:50,949 --> 00:42:51,949 | |
Ничего нового. | |
1093 | |
00:42:51,949 --> 00:42:55,949 | |
Ничего нового, но как будто бы по возможностям этого AI, | |
1094 | |
00:42:55,949 --> 00:42:57,949 | |
внедренного в телефон, | |
1095 | |
00:42:57,949 --> 00:43:00,949 | |
мне показалось, что это даже побогаче, чем у Apple. | |
1096 | |
00:43:03,949 --> 00:43:06,949 | |
Ну, давай, расскажи, что ты там увидел. | |
1097 | |
00:43:06,949 --> 00:43:08,949 | |
Я просто не совсем в теме Самсунгов. | |
1098 | |
00:43:08,949 --> 00:43:09,949 | |
Я знаю, что они супер дорогие. | |
1099 | |
00:43:09,949 --> 00:43:11,949 | |
Смотри, я чуть-чуть... | |
1100 | |
00:43:11,949 --> 00:43:13,949 | |
Они стоят, как айфоны. | |
1101 | |
00:43:13,949 --> 00:43:16,949 | |
Я чуть-чуть глянул обзоры этих фичей. | |
1102 | |
00:43:16,949 --> 00:43:21,949 | |
По-моему, все эти AI-фичи уже появились на телефонах новых. | |
1103 | |
00:43:21,949 --> 00:43:24,949 | |
И они работают на русском языке. | |
1104 | |
00:43:25,949 --> 00:43:27,949 | |
А, вот это прям хорошо, кстати. | |
1105 | |
00:43:27,949 --> 00:43:29,949 | |
Да, то есть то, чего у Apple не будет. | |
1106 | |
00:43:29,949 --> 00:43:32,949 | |
У них есть, например, живой переводчик. | |
1107 | |
00:43:32,949 --> 00:43:34,949 | |
В том числе в режиме разговора. | |
1108 | |
00:43:34,949 --> 00:43:39,949 | |
Живым переводчиком вы пользователей Google Pixel и новых вообще не удивили. | |
1109 | |
00:43:39,949 --> 00:43:41,949 | |
У нас существует уже 100 лет в обед, так что... | |
1110 | |
00:43:43,949 --> 00:43:44,949 | |
На все языки. | |
1111 | |
00:43:44,949 --> 00:43:45,949 | |
Конечно. | |
1112 | |
00:43:45,949 --> 00:43:47,949 | |
Или только с английского на испанский. | |
1113 | |
00:43:47,949 --> 00:43:50,949 | |
Ну, не на все, но русский поддерживается. | |
1114 | |
00:43:53,949 --> 00:43:58,949 | |
Вот, как минимум, вот это как будто бы реализовано лучше. | |
1115 | |
00:43:59,949 --> 00:44:06,949 | |
Потом у них появилась возможность генерировать объекты на фотографиях. | |
1116 | |
00:44:06,949 --> 00:44:13,949 | |
То есть ты можешь, например, не просто удалить объект с фотографии какой-то, | |
1117 | |
00:44:13,949 --> 00:44:16,949 | |
но, например, ты сфотографировал поле, а на нем машина. | |
1118 | |
00:44:16,949 --> 00:44:18,949 | |
И ты хочешь машину удалить. | |
1119 | |
00:44:18,949 --> 00:44:21,949 | |
Ты, например, на Apple это сможешь сделать. | |
1120 | |
00:44:22,949 --> 00:44:25,949 | |
На Pixel, насколько я понимаю, уже можно это сделать. | |
1121 | |
00:44:25,949 --> 00:44:27,949 | |
На Pixel это можно было 4 года назад сделать. | |
1122 | |
00:44:28,949 --> 00:44:29,949 | |
Ну, тем более. | |
1123 | |
00:44:29,949 --> 00:44:32,949 | |
А в Samsung эту машину можно будет наоборот добавить. | |
1124 | |
00:44:33,949 --> 00:44:37,949 | |
То есть ты обводишь место, и там появляется машина. | |
1125 | |
00:44:39,949 --> 00:44:42,949 | |
И она появляется в соответствии со фотографией. | |
1126 | |
00:44:42,949 --> 00:44:46,949 | |
То есть если там картинка реалистичная, то машина будет тоже реалистичная. | |
1127 | |
00:44:46,949 --> 00:44:50,949 | |
Это же то же самое, что Apple показал в своих новых операционках. | |
1128 | |
00:44:50,949 --> 00:44:52,949 | |
По-моему, они тоже показывали такой инструмент. | |
1129 | |
00:44:52,949 --> 00:44:53,949 | |
Не помню, обсуждали его или нет. | |
1130 | |
00:44:53,949 --> 00:44:54,949 | |
Там такого не будет. | |
1131 | |
00:44:54,949 --> 00:44:56,949 | |
Дорисовок не было разве? | |
1132 | |
00:44:56,949 --> 00:44:57,949 | |
У-у. | |
1133 | |
00:45:00,949 --> 00:45:01,949 | |
Дорисовок там не будет. | |
1134 | |
00:45:01,949 --> 00:45:03,949 | |
Ну ладно, ну ладно, ну ладно, все. | |
1135 | |
00:45:03,949 --> 00:45:08,949 | |
Если бы это еще стоило, как подписка на какой-нибудь Photoshop 20 долларов в месяц, | |
1136 | |
00:45:08,949 --> 00:45:09,949 | |
то я бы даже подумал. | |
1137 | |
00:45:10,949 --> 00:45:13,949 | |
Не, ну стоит это как с телефоном Samsung. | |
1138 | |
00:45:13,949 --> 00:45:14,949 | |
Соответственно. | |
1139 | |
00:45:17,949 --> 00:45:20,949 | |
Ты знаешь, я бегло посмотрел на всю эту презентацию. | |
1140 | |
00:45:20,949 --> 00:45:22,949 | |
Мне понравилась одна штука. | |
1141 | |
00:45:22,949 --> 00:45:25,949 | |
Мне понравилось, что они составили конкуренцию Ауаринг. | |
1142 | |
00:45:27,949 --> 00:45:30,949 | |
Ауаринг — это кольцо, которое стоит немалых денег, | |
1143 | |
00:45:30,949 --> 00:45:33,949 | |
и меряет все твои показатели физические. | |
1144 | |
00:45:33,949 --> 00:45:34,949 | |
Они там даже... | |
1145 | |
00:45:34,949 --> 00:45:35,949 | |
Они сейчас очень популярные. | |
1146 | |
00:45:35,949 --> 00:45:36,949 | |
Да-да-да. | |
1147 | |
00:45:36,949 --> 00:45:38,949 | |
Даже у нашего Жени Тихонова оно есть. | |
1148 | |
00:45:38,949 --> 00:45:41,949 | |
И они недавно там себе завезли какого-то AI-ассистента в приложение, | |
1149 | |
00:45:41,949 --> 00:45:44,949 | |
который там может запоминать твои данные, аналитику строить. | |
1150 | |
00:45:44,949 --> 00:45:47,949 | |
Так вот, Galaxy показали свое кольцо Galaxy Ring. | |
1151 | |
00:45:47,949 --> 00:45:48,949 | |
Оно смотрится прям красиво. | |
1152 | |
00:45:48,949 --> 00:45:51,949 | |
Я не помню, сколько оно стоит, но, по-моему, соизмеримо с Ауаринг. | |
1153 | |
00:45:52,949 --> 00:45:55,949 | |
И у них тоже есть AI, которое мониторит ваше здоровье, | |
1154 | |
00:45:55,949 --> 00:45:57,949 | |
и все это одобрено FDM. | |
1155 | |
00:45:58,949 --> 00:46:01,949 | |
Точнее, не все это одобрено FDM, а некоторые функции. | |
1156 | |
00:46:01,949 --> 00:46:07,949 | |
Ну, в общем-то, я прям присматривался к Ауаринг. | |
1157 | |
00:46:07,949 --> 00:46:09,949 | |
Мне казалось, что странно, что у них нет конкурентов, | |
1158 | |
00:46:09,949 --> 00:46:11,949 | |
и что они прям дорогие. | |
1159 | |
00:46:11,949 --> 00:46:16,949 | |
И я сейчас прям засматриваюсь на Galaxy Ring. | |
1160 | |
00:46:18,949 --> 00:46:19,949 | |
Даже так. | |
1161 | |
00:46:19,949 --> 00:46:20,949 | |
Как-то так. | |
1162 | |
00:46:20,949 --> 00:46:22,949 | |
Ну, плюс они еще могут храп обнаруживать во сне. | |
1163 | |
00:46:22,949 --> 00:46:24,949 | |
Для меня это актуальная проблема. | |
1164 | |
00:46:26,949 --> 00:46:27,949 | |
Знаешь, бывает, что... | |
1165 | |
00:46:27,949 --> 00:46:29,949 | |
Какая это проблема? Ты же спишь, Леша. | |
1166 | |
00:46:29,949 --> 00:46:33,949 | |
Не, ну, если это кольцо сможет обнаруживать мой храп | |
1167 | |
00:46:33,949 --> 00:46:36,949 | |
до того, как его обнаружила супруга, | |
1168 | |
00:46:36,949 --> 00:46:40,949 | |
то я могу очень сильно качественно повысить наше отношение. | |
1169 | |
00:46:40,949 --> 00:46:42,949 | |
Ну, прикинь, кольцо начинает тебе вибрировать, | |
1170 | |
00:46:42,949 --> 00:46:45,949 | |
типа ты начинаешь храпеть. Повернись на бог. | |
1171 | |
00:46:48,949 --> 00:46:50,949 | |
Ну, и отслеживание диабета тоже полезно. | |
1172 | |
00:46:50,949 --> 00:46:51,949 | |
Согласен. | |
1173 | |
00:46:53,949 --> 00:46:55,949 | |
Оно прям может сахар мерить в крови. | |
1174 | |
00:46:56,949 --> 00:46:57,949 | |
Нет, сахар же можно... | |
1175 | |
00:46:57,949 --> 00:47:00,949 | |
Ну, сахар можно мерить разными методами. | |
1176 | |
00:47:00,949 --> 00:47:05,949 | |
Понятное дело, что самое лучшее измерение — это кровь взять. | |
1177 | |
00:47:06,949 --> 00:47:07,949 | |
Инвазивно. | |
1178 | |
00:47:07,949 --> 00:47:11,949 | |
Но всяческие там маркеры диабета, я так понимаю, | |
1179 | |
00:47:11,949 --> 00:47:16,949 | |
связанные с состоянием подкожных вот этих венок маленьких, | |
1180 | |
00:47:16,949 --> 00:47:19,949 | |
возможно, с какими-нибудь кожными эффектами, | |
1181 | |
00:47:19,949 --> 00:47:20,949 | |
можно отслеживать. | |
1182 | |
00:47:20,949 --> 00:47:22,949 | |
То есть не напрямую, но косвенно. | |
1183 | |
00:47:23,949 --> 00:47:24,949 | |
В принципе, много кто делает. | |
1184 | |
00:47:24,949 --> 00:47:25,949 | |
По-моему, даже Xiaomi-браслет. | |
1185 | |
00:47:25,949 --> 00:47:29,949 | |
Я помню, был стартап на Kickstarter, | |
1186 | |
00:47:29,949 --> 00:47:34,949 | |
который собрал очень много денег как раз на изобретение кольца, | |
1187 | |
00:47:34,949 --> 00:47:35,949 | |
который может мерить сахар в крови. | |
1188 | |
00:47:35,949 --> 00:47:37,949 | |
Ну, это было году в 10-м, наверное. | |
1189 | |
00:47:38,949 --> 00:47:40,949 | |
Ну, может, не в 10-м, может, в 15-м. | |
1190 | |
00:47:40,949 --> 00:47:43,949 | |
И они всех кинули, они не смогли это кольцо сделать. | |
1191 | |
00:47:43,949 --> 00:47:44,949 | |
Ну, как фантазии. | |
1192 | |
00:47:44,949 --> 00:47:46,949 | |
Просто собрали бабки и исчезли. | |
1193 | |
00:47:46,949 --> 00:47:47,949 | |
Кольцо, оно ездит. | |
1194 | |
00:47:48,949 --> 00:47:51,949 | |
Я ж ходил с этим датчиком, по-моему, даже в подкасте рассказывал. | |
1195 | |
00:47:51,949 --> 00:47:53,949 | |
Датчик на плече двухнедельный. | |
1196 | |
00:47:53,949 --> 00:47:56,949 | |
Там прям такая иголочка полусантиметровая. | |
1197 | |
00:47:56,949 --> 00:47:59,949 | |
Ну, такая не иголочка, а она гнудкая. | |
1198 | |
00:47:59,949 --> 00:48:00,949 | |
И она у тебя прям стоит. | |
1199 | |
00:48:00,949 --> 00:48:01,949 | |
Там самая главная проблема в том, | |
1200 | |
00:48:01,949 --> 00:48:05,949 | |
что окисляются контакты, надо менять постоянно. | |
1201 | |
00:48:07,949 --> 00:48:08,949 | |
А стоит даже фига. | |
1202 | |
00:48:09,949 --> 00:48:10,949 | |
Да, 100 долларов стоило. | |
1203 | |
00:48:12,949 --> 00:48:13,949 | |
Ну, или 80. | |
1204 | |
00:48:13,949 --> 00:48:15,949 | |
В общем-то, вот так. | |
1205 | |
00:48:15,949 --> 00:48:18,949 | |
Хотите посмотреть сами, можете посмотреть. | |
1206 | |
00:48:18,949 --> 00:48:20,949 | |
Конференция недолгая, около часа. | |
1207 | |
00:48:20,949 --> 00:48:23,949 | |
Выглядит что-то среднее между фейсбуковским, | |
1208 | |
00:48:23,949 --> 00:48:28,949 | |
ламповым конференцией, конференцией, снятой Пловской. | |
1209 | |
00:48:29,949 --> 00:48:31,949 | |
Я порадовался, не порадовался... | |
1210 | |
00:48:31,949 --> 00:48:33,949 | |
Да ладно, никому я вру. | |
1211 | |
00:48:33,949 --> 00:48:36,949 | |
Я порадовался тому, что там присутствовала Сидни Суини. | |
1212 | |
00:48:37,949 --> 00:48:39,949 | |
Если кто не знает, обязательно посмотрите. | |
1213 | |
00:48:39,949 --> 00:48:40,949 | |
Замечательная актриса. | |
1214 | |
00:48:40,949 --> 00:48:41,949 | |
Почему она там присутствовала? | |
1215 | |
00:48:41,949 --> 00:48:42,949 | |
Потому что они... | |
1216 | |
00:48:42,949 --> 00:48:44,949 | |
И я, и аватары тоже показывали. | |
1217 | |
00:48:44,949 --> 00:48:48,949 | |
Один из я, и аватаров, они срисовали с этой замечательной актрисой. | |
1218 | |
00:48:49,949 --> 00:48:52,949 | |
И они прям в живом эфире попытались в интерактив. | |
1219 | |
00:48:52,949 --> 00:48:54,949 | |
Они там со сцены прямо у нас, тут с нами. | |
1220 | |
00:48:54,949 --> 00:48:57,949 | |
И Сидни Суини показывают Сидни Суини. | |
1221 | |
00:48:57,949 --> 00:49:01,949 | |
Она там прям в таком деловом платье, что для нее необычно. | |
1222 | |
00:49:02,949 --> 00:49:04,949 | |
И немножко такая ошарашенная, так рабеет. | |
1223 | |
00:49:04,949 --> 00:49:05,949 | |
Такая, о, как прикольно. | |
1224 | |
00:49:05,949 --> 00:49:07,949 | |
Ну, короче, попытались в интерактив. | |
1225 | |
00:49:07,949 --> 00:49:12,949 | |
Это выглядело вот на уровне какой-то кринжательной силиконовой долины, | |
1226 | |
00:49:12,949 --> 00:49:15,949 | |
когда интроверты со сцены пытаются разговаривать с селем. | |
1227 | |
00:49:16,949 --> 00:49:18,949 | |
Что-то такое там было. | |
1228 | |
00:49:19,949 --> 00:49:22,949 | |
Короче, теперь точно стоит посмотреть эту конференцию. | |
1229 | |
00:49:22,949 --> 00:49:23,949 | |
В общем. | |
1230 | |
00:49:25,949 --> 00:49:26,949 | |
Так, ну и что еще? | |
1231 | |
00:49:26,949 --> 00:49:32,949 | |
Еще, кстати, рассказали же про то, что ИИ будет анализировать физические данные. | |
1232 | |
00:49:32,949 --> 00:49:37,949 | |
Такие там, как сон, нагрузки, спортивные показатели и прочее. | |
1233 | |
00:49:37,949 --> 00:49:39,949 | |
Ну, этим уже мало кого удивишь, на самом деле. | |
1234 | |
00:49:40,949 --> 00:49:42,949 | |
Если бы там какая-то технология лежала под капотом. | |
1235 | |
00:49:42,949 --> 00:49:46,949 | |
А так, ну, ты обычно на уровне настроить промпт и правильно подать данные на вход. | |
1236 | |
00:49:46,949 --> 00:49:47,949 | |
Это правда, да. | |
1237 | |
00:49:47,949 --> 00:49:50,949 | |
Это правда, но вообще сам факт, что подумай о том, | |
1238 | |
00:49:50,949 --> 00:49:53,949 | |
сколько в телефоне информации о твоем здоровье содержится. | |
1239 | |
00:49:53,949 --> 00:49:54,949 | |
Очень мало. | |
1240 | |
00:49:55,949 --> 00:49:57,949 | |
Ну, окей. | |
1241 | |
00:49:57,949 --> 00:49:59,949 | |
В моем телефоне вообще нет информации о моем здоровье. | |
1242 | |
00:50:00,949 --> 00:50:02,949 | |
Вообще никакой. Он и шаги у тебя не считает. | |
1243 | |
00:50:02,949 --> 00:50:03,949 | |
Не считает. | |
1244 | |
00:50:04,949 --> 00:50:05,949 | |
Как он будет считать? | |
1245 | |
00:50:05,949 --> 00:50:07,949 | |
Телефон вообще-то очень плохо шаги считать может. | |
1246 | |
00:50:08,949 --> 00:50:11,949 | |
Телефон очень плохо может считать шаги, это правда. | |
1247 | |
00:50:11,949 --> 00:50:13,949 | |
Но приблизительно как-то может. | |
1248 | |
00:50:13,949 --> 00:50:18,949 | |
Но смотри, в среднестатистическом телефоне это шаги, это тренировки. | |
1249 | |
00:50:19,949 --> 00:50:21,949 | |
Мой телефон там знает мой рост вес, | |
1250 | |
00:50:21,949 --> 00:50:24,949 | |
он может отслеживать динамику веса по умным весам. | |
1251 | |
00:50:25,949 --> 00:50:29,949 | |
Некоторые люди заморачиваются, данные о калориях подают в телефон. | |
1252 | |
00:50:30,949 --> 00:50:34,949 | |
В телефоне еще в почте у тебя наверняка лежат где-то результаты анализов. | |
1253 | |
00:50:35,949 --> 00:50:40,949 | |
То есть все данные для того, чтобы предсказывать какие-то моменты о твоем здоровье, | |
1254 | |
00:50:40,949 --> 00:50:41,949 | |
в телефоне есть. | |
1255 | |
00:50:44,949 --> 00:50:48,949 | |
Ты когда говоришь, что в телефоне есть мои данные анализов, | |
1256 | |
00:50:48,949 --> 00:50:52,949 | |
меня тут немножко триггерит, потому что мои данные анализов есть, сука, в моей почте. | |
1257 | |
00:50:52,949 --> 00:50:56,949 | |
И мой телефон не должен иметь без моего разрешения доступ к моей почте. | |
1258 | |
00:50:57,949 --> 00:51:00,949 | |
Поэтому это не моего телефона заслуживает, а моей почте. | |
1259 | |
00:51:03,949 --> 00:51:04,949 | |
Но в целом да, я понял. | |
1260 | |
00:51:04,949 --> 00:51:08,949 | |
То есть ты хочешь сказать, что с телефона можно наценить столько информации, | |
1261 | |
00:51:08,949 --> 00:51:10,949 | |
чтобы делать хорошее предсказание? | |
1262 | |
00:51:10,949 --> 00:51:12,949 | |
Я думаю, что да. | |
1263 | |
00:51:13,949 --> 00:51:16,949 | |
Главное, чтобы товарищу майору поменьше их сливали. | |
1264 | |
00:51:18,949 --> 00:51:21,949 | |
Медицинскому товарищу доктору будут сливать. | |
1265 | |
00:51:23,949 --> 00:51:25,949 | |
Я, кстати, посмотрел, сколько Galaxy Ring стоит. | |
1266 | |
00:51:25,949 --> 00:51:26,949 | |
Стоит она 400 долларов. | |
1267 | |
00:51:26,949 --> 00:51:28,949 | |
Это на 100 долларов больше, чем Aura Ring. | |
1268 | |
00:51:28,949 --> 00:51:31,949 | |
Поэтому теперь Aura Ring в моих глазах поднялись. | |
1269 | |
00:51:35,949 --> 00:51:39,949 | |
Это, наверное, хорошо, если ты в инфраструктуре Самсунга живешь. | |
1270 | |
00:51:40,949 --> 00:51:42,949 | |
Тогда да, тогда можно и Galaxy Ring купить. | |
1271 | |
00:51:43,949 --> 00:51:47,949 | |
Я надеюсь, что не будет Samsung подсаживать на инфраструктуру через кольцо. | |
1272 | |
00:51:47,949 --> 00:51:50,949 | |
Вообще я сильно не люблю эти инфраструктурные войны. | |
1273 | |
00:51:50,949 --> 00:51:52,949 | |
Я за это Google Pixel люблю. | |
1274 | |
00:51:52,949 --> 00:51:54,949 | |
Ну ладно, у них инфраструктура софтверная. | |
1275 | |
00:51:54,949 --> 00:52:00,949 | |
Понятно, они тебе и почту, и диск, и все, что хочешь, апишки на это подсаживают. | |
1276 | |
00:52:00,949 --> 00:52:02,949 | |
Но с хардверной точки зрения, что у них? | |
1277 | |
00:52:02,949 --> 00:52:04,949 | |
У них телефон, у них наушники, и все, по факту. | |
1278 | |
00:52:04,949 --> 00:52:05,949 | |
Ну, планшет. | |
1279 | |
00:52:05,949 --> 00:52:07,949 | |
А Chromebook'и, конечно. | |
1280 | |
00:52:07,949 --> 00:52:09,949 | |
Ну, кто ими пользуется? | |
1281 | |
00:52:09,949 --> 00:52:11,949 | |
Эти два человека, которые их же сами и пилят. | |
1282 | |
00:52:11,949 --> 00:52:12,949 | |
Камон. | |
1283 | |
00:52:13,949 --> 00:52:16,949 | |
Вообще мне всегда нравится смотреть на гугловские конференции, | |
1284 | |
00:52:16,949 --> 00:52:19,949 | |
где все девелоперы с макбуками сидят всегда. | |
1285 | |
00:52:19,949 --> 00:52:21,949 | |
Это очень мило. | |
1286 | |
00:52:21,949 --> 00:52:24,949 | |
Это, между прочим, показывает Diversity в компании Google. | |
1287 | |
00:52:24,949 --> 00:52:27,949 | |
Понятно, там даже с конкурентскими ноутбуками сидеть. | |
1288 | |
00:52:27,949 --> 00:52:28,949 | |
Да, да, да. | |
1289 | |
00:52:28,949 --> 00:52:32,949 | |
Вот на эппловских конференциях никого с Chromebook'ом не увидишь. | |
1290 | |
00:52:32,949 --> 00:52:34,949 | |
Их там отстреливают просто. | |
1291 | |
00:52:34,949 --> 00:52:37,949 | |
Да, запрещают, скорее всего. | |
1292 | |
00:52:37,949 --> 00:52:39,949 | |
Что еще, Витя? | |
1293 | |
00:52:40,949 --> 00:52:41,949 | |
Что еще? | |
1294 | |
00:52:41,949 --> 00:52:44,949 | |
Еще, конечно же, Илон Маск. | |
1295 | |
00:52:44,949 --> 00:52:46,949 | |
Илон Маск наш дорогой. | |
1296 | |
00:52:46,949 --> 00:52:49,949 | |
Да, без него мы обещали, что он будет. | |
1297 | |
00:52:49,949 --> 00:52:50,949 | |
И он есть. | |
1298 | |
00:52:50,949 --> 00:52:55,949 | |
Илон Маск рассказал, что Грок 2 уже практически готов. | |
1299 | |
00:52:57,949 --> 00:53:01,949 | |
Да, сказал он, что в следующем месяце мы его увидим. | |
1300 | |
00:53:01,949 --> 00:53:03,949 | |
Это июнь, в августе получается. | |
1301 | |
00:53:03,949 --> 00:53:05,949 | |
Мне прям даже интересно посмотреть. | |
1302 | |
00:53:05,949 --> 00:53:07,949 | |
Потому что я нет-нет допользуюсь. | |
1303 | |
00:53:08,929 --> 00:53:17,929 | |
...по своей иксовой подписке игроком первым. Посматриваю, пока он тупенький, но, учитывая, что он рассказывает, что второго игрока тренировали | |
1304 | |
00:53:17,929 --> 00:53:26,929 | |
на том самом здоровенном мегакластере на 100 тысяч х100 карточек, будет интересно посмотреть, насколько он сможет составить конкуренцию. | |
1305 | |
00:53:26,929 --> 00:53:33,929 | |
Да, ну и вроде как он сказал, что они останавливаться не будут, и игрока третьего начнет сразу же тренировать. | |
1306 | |
00:53:33,929 --> 00:53:35,929 | |
Ага, на новом дата-центре, да? | |
1307 | |
00:53:35,929 --> 00:53:37,929 | |
Да, наверное. | |
1308 | |
00:53:37,929 --> 00:53:41,929 | |
Не, ну, с такими мощностями я не удивлюсь, если он будет прям топчик. | |
1309 | |
00:53:43,929 --> 00:53:45,929 | |
Главное, чтобы не подкрутили к выборам. | |
1310 | |
00:53:45,929 --> 00:53:47,929 | |
Главное, чтобы к выборам не подкрутили. | |
1311 | |
00:53:47,929 --> 00:53:51,929 | |
А, может, поэтому как раз вторая версия и релизится. | |
1312 | |
00:53:51,929 --> 00:53:53,929 | |
Может быть. | |
1313 | |
00:53:53,929 --> 00:53:58,929 | |
Ну, а пока мы ждем игрока 2.0, про который мы, кстати, давно не разговаривали. | |
1314 | |
00:53:58,929 --> 00:54:02,929 | |
Замечательный сервис от создателя Quora, Adam D'Angelo. | |
1315 | |
00:54:03,929 --> 00:54:05,929 | |
Выкатил превьюз. | |
1316 | |
00:54:05,929 --> 00:54:12,929 | |
И превьюз — это те же самые артефакты от Антропика, но только которые работают со всеми крупными LLM-ками. | |
1317 | |
00:54:12,929 --> 00:54:17,929 | |
Потому что POE — это провайдер LLM-ок в виде чат-интерфейсов. | |
1318 | |
00:54:17,929 --> 00:54:20,929 | |
Там можно создавать ботов на базе разных LLM-ок, общаться с ними. | |
1319 | |
00:54:20,929 --> 00:54:22,929 | |
И вот они сделали превьюзы. | |
1320 | |
00:54:22,929 --> 00:54:24,929 | |
Я эти превью прям хорошо потыкал. | |
1321 | |
00:54:24,929 --> 00:54:28,929 | |
Они работают так же, как антропиковские. | |
1322 | |
00:54:28,929 --> 00:54:31,929 | |
Там поддерживается HTML, CSS, JavaScript запуск. | |
1323 | |
00:54:31,929 --> 00:54:33,929 | |
Можно графики интерактивные делать, презентажки. | |
1324 | |
00:54:33,929 --> 00:54:36,929 | |
Обещают, что скоро добавят новые фичи. | |
1325 | |
00:54:36,929 --> 00:54:40,929 | |
Ну, скорее всего, первый из фичей будет завести туда Python. | |
1326 | |
00:54:40,929 --> 00:54:42,929 | |
То же самое, что Антропик обещал. | |
1327 | |
00:54:42,929 --> 00:54:46,929 | |
Ну, там прикольно, да, он и графики всякие умеет врисовать. | |
1328 | |
00:54:46,929 --> 00:54:52,929 | |
Ну, единственное, что в Антропике удобно, что артефакты у них сбоку, и они всегда у тебя видны. | |
1329 | |
00:54:52,929 --> 00:54:56,929 | |
А в POE это интерактивное окно, оно в самом чате. | |
1330 | |
00:54:56,929 --> 00:54:59,929 | |
Просто одно из сообщений, да, по факту. | |
1331 | |
00:54:59,929 --> 00:55:04,929 | |
Но, что интересно, POE умеет хорошо, во-первых, редактировать части кода. | |
1332 | |
00:55:04,929 --> 00:55:08,929 | |
То есть, если он что-то написал, ты можешь попросить конкретную функцию изменить, | |
1333 | |
00:55:08,929 --> 00:55:12,929 | |
и он не перегенерирует код, а меняет функцию почти без галлюцинаций. | |
1334 | |
00:55:12,929 --> 00:55:18,929 | |
По идее, это не фишка POE, это же на базе LLM-ок все работает. | |
1335 | |
00:55:18,929 --> 00:55:20,929 | |
Но почему-то в POE мне показалось, что это лучше работает. | |
1336 | |
00:55:21,929 --> 00:55:28,929 | |
И у них, я не подчисливал точно, но у них, по-моему, сильно больше контекстное окно для аутпута, | |
1337 | |
00:55:28,929 --> 00:55:35,929 | |
потому что в Антропике, если ты за 4000 токенов выходишь, у тебя появляется кнопка continue, | |
1338 | |
00:55:35,929 --> 00:55:39,929 | |
и если ты нажимаешь continue, у тебя в окне артефактов не слепливаются эти два сообщения. | |
1339 | |
00:55:39,929 --> 00:55:47,929 | |
А в POE я прямо написал шахматы, попросил сделать шахматы по нормальным правилам с AI-противником, | |
1340 | |
00:55:47,929 --> 00:55:52,929 | |
и он то все сделал, достаточно длинный код написал и вывел, и я в эти шахматы тоже немножко поиграл. | |
1341 | |
00:55:52,929 --> 00:55:53,929 | |
Вот так вот. | |
1342 | |
00:55:53,929 --> 00:55:56,929 | |
Ничего себе, они нормально работали, все было хорошо. | |
1343 | |
00:55:56,929 --> 00:56:01,929 | |
Ну, там первая итерация была такая, что все ходят как хотят, вообще без правил. | |
1344 | |
00:56:03,929 --> 00:56:07,929 | |
Я его попросил, я ему сказал, что вообще-то шахматы по правилам должны быть, | |
1345 | |
00:56:07,929 --> 00:56:10,929 | |
и эти фигуры, каждая ходит по своим правилам, пожалуйста, заимплементируй. | |
1346 | |
00:56:10,929 --> 00:56:15,929 | |
Он это заимплементировал, причем кусочком отдельным, дописал этот отдельный кусочек, | |
1347 | |
00:56:15,929 --> 00:56:22,929 | |
но написал его просто, типа написал кусок кода и говорит, вот этот кусок кода сделает нормальными шахматы. | |
1348 | |
00:56:22,929 --> 00:56:24,929 | |
То есть, соответственно, ничего не запустилось. | |
1349 | |
00:56:24,929 --> 00:56:27,929 | |
Я его третьим сообщением попросил объединить два этих куска кода, изначальный, | |
1350 | |
00:56:27,929 --> 00:56:31,929 | |
и то, что он дописал, он все красиво объединил и все заработало, да. | |
1351 | |
00:56:34,929 --> 00:56:35,929 | |
Вот. | |
1352 | |
00:56:35,929 --> 00:56:37,929 | |
Ну, по кеюшке, нормально. | |
1353 | |
00:56:37,929 --> 00:56:42,929 | |
Кстати, о артефактах антропиковских. | |
1354 | |
00:56:42,929 --> 00:56:46,929 | |
Мы с тобой когда про них говорили, в прошлом выпуске или в позапрошлом? | |
1355 | |
00:56:46,929 --> 00:56:49,929 | |
В прошлом или позапрошлом, я уже не помню, честно говоря. | |
1356 | |
00:56:49,929 --> 00:56:50,929 | |
Наверное, в прошлом. | |
1357 | |
00:56:50,929 --> 00:56:53,929 | |
Короче, совсем недавно мы говорили, и говорили, что было бы неплохо, | |
1358 | |
00:56:53,929 --> 00:56:57,929 | |
чтобы у них появился весь функционал, как у GPTIS, | |
1359 | |
00:56:57,929 --> 00:57:02,929 | |
а в том числе возможность публиковать и расшаривать эти артефакты. | |
1360 | |
00:57:02,929 --> 00:57:04,929 | |
И что ты думаешь? | |
1361 | |
00:57:04,929 --> 00:57:06,929 | |
Нас посмотрели и послушали. | |
1362 | |
00:57:06,929 --> 00:57:07,929 | |
Да, да. | |
1363 | |
00:57:07,929 --> 00:57:08,929 | |
Все ж понятно. | |
1364 | |
00:57:08,929 --> 00:57:12,929 | |
Теперь такая возможность есть, и теперь не только GPTIS, | |
1365 | |
00:57:12,929 --> 00:57:16,929 | |
а осталось только, чтобы у всего этого появился какой-то удобный каталог, | |
1366 | |
00:57:18,929 --> 00:57:21,929 | |
в идеале еще с поиском рекомендаций, и, пожалуйста. | |
1367 | |
00:57:22,929 --> 00:57:25,929 | |
Ну, кстати говоря, забавный момент был, | |
1368 | |
00:57:25,929 --> 00:57:30,929 | |
потому что позы зарелизили превьюз ровно в тот же день, почти в тот же час, | |
1369 | |
00:57:30,929 --> 00:57:35,929 | |
когда антропик сказал, что у них появилась возможность шаринга артефактов. | |
1370 | |
00:57:35,929 --> 00:57:40,929 | |
А учитывая, что антропик свои первые модели, если ты помнишь, через По показывал, | |
1371 | |
00:57:40,929 --> 00:57:42,929 | |
у них не было своего интерфейса. | |
1372 | |
00:57:42,929 --> 00:57:44,929 | |
Да, так первых кодов только можно... | |
1373 | |
00:57:44,929 --> 00:57:47,929 | |
По-моему, он даже док-кодом не назывался, если я не ошибаюсь. | |
1374 | |
00:57:47,929 --> 00:57:49,929 | |
А нет, назывался, назывался. | |
1375 | |
00:57:49,929 --> 00:57:53,929 | |
Ну да, первых кодов можно было только через По потестить. | |
1376 | |
00:57:53,929 --> 00:57:54,929 | |
У тебя камера выключилась. | |
1377 | |
00:57:55,929 --> 00:57:58,929 | |
Да, я знаю. Немножко посидим без моей камеры, потому что у меня она перегрелась. | |
1378 | |
00:57:58,929 --> 00:58:03,929 | |
Так вот, они в один вот тот же момент выкатили свои обновления, | |
1379 | |
00:58:03,929 --> 00:58:06,929 | |
и у По сразу по дефолту была возможность шаринга. | |
1380 | |
00:58:07,929 --> 00:58:12,929 | |
Мне кажется, что они либо вместе это всё как-то разрабатывают, синхронизируются, | |
1381 | |
00:58:12,929 --> 00:58:15,929 | |
либо как-то конкурировать пытаются. | |
1382 | |
00:58:15,929 --> 00:58:16,929 | |
В общем, прикольно выглядело. | |
1383 | |
00:58:17,929 --> 00:58:19,929 | |
Ну, они точно дружат. | |
1384 | |
00:58:19,929 --> 00:58:27,929 | |
Я напоминаю, что вообще По — это то приложение, в котором GPT-4 появился не в день релиза, | |
1385 | |
00:58:27,929 --> 00:58:29,929 | |
а в час релиза GPT-4. | |
1386 | |
00:58:31,929 --> 00:58:32,929 | |
В своё время. | |
1387 | |
00:58:32,929 --> 00:58:37,929 | |
И Томас, ой, Адам Д'Анджело, чувак, который так-то сидит ещё в совете директоров, | |
1388 | |
00:58:37,929 --> 00:58:44,929 | |
единственный из всех членов директората, который остался после той самой эпопеи с увольнением Сама Альтмана. | |
1389 | |
00:58:44,929 --> 00:58:47,929 | |
И он не подписал документы возвращения Сама Альтмана. | |
1390 | |
00:58:47,929 --> 00:58:52,929 | |
То есть чувак явно на очень хорошем счету, либо очень хорошие подвязки имеет, раз остаётся там. | |
1391 | |
00:58:53,929 --> 00:58:55,929 | |
И может даже и право голоса есть. | |
1392 | |
00:58:55,929 --> 00:58:58,929 | |
Точно есть он, да, он как раз-таки не наблюдатель. | |
1393 | |
00:58:59,929 --> 00:59:03,929 | |
А вот Китай тоже на месте не стоит. | |
1394 | |
00:59:03,929 --> 00:59:05,929 | |
С Китая редко новости к нам долетают. | |
1395 | |
00:59:05,929 --> 00:59:10,929 | |
Но тут у них была конференция, называется она World Artificial Intelligence Conference. | |
1396 | |
00:59:10,929 --> 00:59:13,929 | |
И они в рамках этой конференции много чего показали. | |
1397 | |
00:59:13,929 --> 00:59:18,929 | |
В частности, меня заинтересовала их моделька под названием Sense Nova 5.5. | |
1398 | |
00:59:18,929 --> 00:59:21,929 | |
Они на базе этой модели дофигища разных продуктов показывали, | |
1399 | |
00:59:21,929 --> 00:59:28,929 | |
в том числе конкурент RG504O под названием Sense Nova 5.0. | |
1400 | |
00:59:28,929 --> 00:59:30,929 | |
Ясно, откуда корни растут. | |
1401 | |
00:59:30,929 --> 00:59:35,929 | |
Это реалтаймовая мультимодалка, которая может и аудио, и тексты видео. | |
1402 | |
00:59:35,929 --> 00:59:38,929 | |
В общем, всё то, что 4.0 может, то же самое Sense Nova может делать. | |
1403 | |
00:59:38,929 --> 00:59:41,929 | |
Мне нравится, что они такие, типа, а у нас будет 5.0. | |
1404 | |
00:59:41,929 --> 00:59:43,929 | |
Ну, о, это ж типа... | |
1405 | |
00:59:43,929 --> 00:59:45,929 | |
Ну, кстати, да, хорош. | |
1406 | |
00:59:45,929 --> 00:59:46,929 | |
О мне, да. | |
1407 | |
00:59:46,929 --> 00:59:48,929 | |
Да, ну, короче... | |
1408 | |
00:59:49,929 --> 00:59:52,929 | |
Можете посмотреть эту конференцию. | |
1409 | |
00:59:52,929 --> 00:59:55,929 | |
Я не знаю, будет ли она доступна на английском языке. Навряд ли. | |
1410 | |
00:59:55,929 --> 01:00:00,929 | |
Ссылочка будет в закрепе, на саму статью, там будет на конференцию ссылка. | |
1411 | |
01:00:00,929 --> 01:00:04,929 | |
Они говорят, что эта модель там по бенчмаркам чуть ли не... | |
1412 | |
01:00:04,929 --> 01:00:08,929 | |
по большей части бенчмарков превосходит RG504O. | |
1413 | |
01:00:08,929 --> 01:00:09,929 | |
Ну? | |
1414 | |
01:00:09,929 --> 01:00:11,929 | |
Да, видел, видел. | |
1415 | |
01:00:11,929 --> 01:00:14,929 | |
Но это не открытая модель, навряд ли мы её сможем потестить, | |
1416 | |
01:00:14,929 --> 01:00:16,929 | |
как минимум без телефона китайского. | |
1417 | |
01:00:16,929 --> 01:00:17,929 | |
Угу. | |
1418 | |
01:00:17,929 --> 01:00:19,929 | |
Ну, вот такие новости. | |
1419 | |
01:00:19,929 --> 01:00:20,929 | |
Не менее. | |
1420 | |
01:00:21,929 --> 01:00:24,929 | |
Так, университет Карнеги Мэлон. | |
1421 | |
01:00:24,929 --> 01:00:29,929 | |
Мне очень нравится название Мэлон, потому что я знаю, что Мэлон — это дыня. | |
1422 | |
01:00:29,929 --> 01:00:30,929 | |
А не арбуз? | |
1423 | |
01:00:30,929 --> 01:00:31,929 | |
Университет Карнеги Дыня. | |
1424 | |
01:00:31,929 --> 01:00:32,929 | |
Watermelon. | |
1425 | |
01:00:32,929 --> 01:00:34,929 | |
Арбуз — это Watermelon, да. | |
1426 | |
01:00:34,929 --> 01:00:35,929 | |
А-а-а. | |
1427 | |
01:00:35,929 --> 01:00:39,929 | |
Что логично, кстати, потому что, действительно, арбуз очень водянистый. | |
1428 | |
01:00:39,929 --> 01:00:40,929 | |
Ну, я даже... | |
1429 | |
01:00:40,929 --> 01:00:41,929 | |
Короче, ребята... | |
1430 | |
01:00:41,929 --> 01:00:42,929 | |
Прямо как наш подкаст иногда. | |
1431 | |
01:00:42,929 --> 01:00:43,929 | |
Хаджин Фэйси. | |
1432 | |
01:00:44,929 --> 01:00:46,929 | |
Да, это точно. | |
1433 | |
01:00:47,929 --> 01:00:49,929 | |
Например, прямо сейчас. | |
1434 | |
01:00:50,929 --> 01:00:55,929 | |
Ребята на Хаджин Фэйси выложили модель под названием Xeus. | |
1435 | |
01:00:55,929 --> 01:00:57,929 | |
Звучит как крутая игра. | |
1436 | |
01:00:57,929 --> 01:01:04,929 | |
Но это аудио-то аудиомодель, которая переводит аудио. | |
1437 | |
01:01:04,929 --> 01:01:08,929 | |
То есть вы подаёте, например, на вход речь на английском, | |
1438 | |
01:01:08,929 --> 01:01:10,929 | |
она возвращает речь на русском. | |
1439 | |
01:01:10,929 --> 01:01:17,929 | |
Обучена на целой куче, на миллионах часов аудиофайлов. | |
1440 | |
01:01:19,929 --> 01:01:21,929 | |
И поддерживает 4000 языков. | |
1441 | |
01:01:21,929 --> 01:01:23,929 | |
4000 языков. Офигеть. | |
1442 | |
01:01:23,929 --> 01:01:26,929 | |
Вот в наушнике осталось такое впилите, и всё. | |
1443 | |
01:01:26,929 --> 01:01:28,929 | |
В Rabbit R1, пожалуйста, впилите. | |
1444 | |
01:01:28,929 --> 01:01:32,929 | |
Не будет цены вашему устройству. | |
1445 | |
01:01:33,929 --> 01:01:34,929 | |
Да. | |
1446 | |
01:01:34,929 --> 01:01:37,929 | |
А вот ещё новости из Китая, кстати говоря. | |
1447 | |
01:01:37,929 --> 01:01:39,929 | |
Нет, не из Китая. | |
1448 | |
01:01:39,929 --> 01:01:40,929 | |
Хотя... | |
1449 | |
01:01:40,929 --> 01:01:41,929 | |
Короче. | |
1450 | |
01:01:41,929 --> 01:01:43,929 | |
Что там, Конг есть? | |
1451 | |
01:01:43,929 --> 01:01:45,929 | |
Что это значит, что это из Китая? | |
1452 | |
01:01:46,929 --> 01:01:48,929 | |
Я по-другому хотел сказать. | |
1453 | |
01:01:48,929 --> 01:01:50,929 | |
Я хотел сказать, что у нас в чате часто обсуждают, | |
1454 | |
01:01:50,929 --> 01:01:53,929 | |
что там по лмкам для камушков делают, | |
1455 | |
01:01:53,929 --> 01:01:56,929 | |
для микропроцессор-контроллеров и всего остального. | |
1456 | |
01:01:56,929 --> 01:02:01,929 | |
Иногда сетуют на то, что лмки плохо умеют работать с программированием низкоуровневым. | |
1457 | |
01:02:01,929 --> 01:02:03,929 | |
Тут есть двоякое мнение. | |
1458 | |
01:02:03,929 --> 01:02:05,929 | |
Например, Бобук Ришибукунов. | |
1459 | |
01:02:05,929 --> 01:02:08,929 | |
Я с ним недавно интервью записывал для своего сообщества. | |
1460 | |
01:02:08,929 --> 01:02:12,929 | |
Он наоборот говорит, что все лмки хорошо достаточно работают с камнями, | |
1461 | |
01:02:12,929 --> 01:02:14,929 | |
даже лучше, чем с языками программирования, | |
1462 | |
01:02:14,929 --> 01:02:16,929 | |
потому что для них это проще. | |
1463 | |
01:02:16,929 --> 01:02:18,929 | |
Так вот, новость следующая такова, | |
1464 | |
01:02:18,929 --> 01:02:22,929 | |
что компания Atimatic запустила лмку, | |
1465 | |
01:02:22,929 --> 01:02:24,929 | |
одну из первых лмок, | |
1466 | |
01:02:24,929 --> 01:02:27,929 | |
заточенной исключительно под работу с полупроводниками. | |
1467 | |
01:02:27,929 --> 01:02:29,929 | |
Называется Simicong. | |
1468 | |
01:02:30,929 --> 01:02:32,929 | |
И я немножко её потыкал, | |
1469 | |
01:02:32,929 --> 01:02:34,929 | |
можно прям зайти, у них есть интерфейс. | |
1470 | |
01:02:34,929 --> 01:02:36,929 | |
Это по факту чат, бот. | |
1471 | |
01:02:36,929 --> 01:02:39,929 | |
То есть просто интерфейс чата с лмкой под капотом, | |
1472 | |
01:02:39,929 --> 01:02:42,929 | |
но которая хорошо разбирается в полупроводниках. | |
1473 | |
01:02:42,929 --> 01:02:45,929 | |
Там можно у неё спросить, что лучше, для каких задач поговорить. | |
1474 | |
01:02:45,929 --> 01:02:48,929 | |
В общем-то, можете попробовать попользоваться. | |
1475 | |
01:02:48,929 --> 01:02:50,929 | |
С точки зрения программирования, не знаю, как она работает, | |
1476 | |
01:02:50,929 --> 01:02:52,929 | |
но она открытая. | |
1477 | |
01:02:52,929 --> 01:02:54,929 | |
Её можно ещё к тому же скачать. | |
1478 | |
01:02:54,929 --> 01:02:56,929 | |
Есть две версии на 8 миллиардов, 70 миллиардов параметров. | |
1479 | |
01:02:56,929 --> 01:02:58,929 | |
Всё доступно на хайгинг-фейсе. | |
1480 | |
01:03:01,929 --> 01:03:03,929 | |
Вот как-то так. | |
1481 | |
01:03:04,929 --> 01:03:06,929 | |
Окей, а компания, | |
1482 | |
01:03:06,929 --> 01:03:08,929 | |
название которой лично мне тяжело прочитать, | |
1483 | |
01:03:08,929 --> 01:03:10,929 | |
но я попробую. | |
1484 | |
01:03:10,929 --> 01:03:12,929 | |
Kuaytay Labs. | |
1485 | |
01:03:12,929 --> 01:03:14,929 | |
О, ты молодец. Я сначала прочитал. | |
1486 | |
01:03:14,929 --> 01:03:15,929 | |
Она китайская. | |
1487 | |
01:03:15,929 --> 01:03:17,929 | |
А я сначала прочитал кутаиси. | |
1488 | |
01:03:17,929 --> 01:03:19,929 | |
Кутаиси, да. | |
1489 | |
01:03:21,929 --> 01:03:23,929 | |
Видно, из Турции приехали, да? | |
1490 | |
01:03:23,929 --> 01:03:24,929 | |
В Турцию кутаиси? | |
1491 | |
01:03:24,929 --> 01:03:25,929 | |
Да-да-да. | |
1492 | |
01:03:25,929 --> 01:03:27,929 | |
Кутаиси — это в Грузии. | |
1493 | |
01:03:27,929 --> 01:03:31,929 | |
А, ну, видно, что Лёша в подкасте, да. | |
1494 | |
01:03:31,929 --> 01:03:33,929 | |
Куда? | |
1495 | |
01:03:33,929 --> 01:03:35,929 | |
Ну, это не китайская совсем. | |
1496 | |
01:03:35,929 --> 01:03:37,929 | |
Это французская e-лаборатория, | |
1497 | |
01:03:37,929 --> 01:03:40,929 | |
которая релизнула сервис | |
1498 | |
01:03:40,929 --> 01:03:42,929 | |
под названием Moshi. | |
1499 | |
01:03:43,929 --> 01:03:45,929 | |
Он же MoshiChat. | |
1500 | |
01:03:47,929 --> 01:03:49,929 | |
Что такое Moshi? | |
1501 | |
01:03:49,929 --> 01:03:51,929 | |
Moshi — это | |
1502 | |
01:03:51,929 --> 01:03:53,929 | |
тот самый GPC 4.0, | |
1503 | |
01:03:53,929 --> 01:03:55,929 | |
который нам показывали на презентации. | |
1504 | |
01:03:56,929 --> 01:03:58,929 | |
Его, точнее, голосовая часть, | |
1505 | |
01:03:58,929 --> 01:04:00,929 | |
которая до сих пор не релизнута у PDI, | |
1506 | |
01:04:00,929 --> 01:04:02,929 | |
но релизнуты вот эти кутаи-лабс. | |
1507 | |
01:04:02,929 --> 01:04:04,929 | |
По-моему, уже всё, что OpenAI показал, | |
1508 | |
01:04:04,929 --> 01:04:07,929 | |
зарелизили все, но только не OpenAI. | |
1509 | |
01:04:07,929 --> 01:04:09,929 | |
Кроме OpenAI. Даже Soru, да. | |
1510 | |
01:04:09,929 --> 01:04:12,929 | |
Да, даже Soru. Даже два раза. | |
1511 | |
01:04:12,929 --> 01:04:15,929 | |
Ну, короче, с этим MoshiChat можно общаться. | |
1512 | |
01:04:15,929 --> 01:04:18,929 | |
Там очень высокая скорость ответа, | |
1513 | |
01:04:18,929 --> 01:04:20,929 | |
всего 200 миллисекунд. | |
1514 | |
01:04:20,929 --> 01:04:22,929 | |
Его можно перебивать. | |
1515 | |
01:04:22,929 --> 01:04:24,929 | |
И это прям реально общение. | |
1516 | |
01:04:24,929 --> 01:04:27,929 | |
Реально общение в реальном времени. | |
1517 | |
01:04:27,929 --> 01:04:29,929 | |
Да, они показали, собственно, сам сервис. | |
1518 | |
01:04:29,929 --> 01:04:31,929 | |
Можно зайти туда его потыкать. | |
1519 | |
01:04:31,929 --> 01:04:33,929 | |
Он выглядит достаточно забавно. | |
1520 | |
01:04:33,929 --> 01:04:35,929 | |
Там есть бегунки, голоса. | |
1521 | |
01:04:35,929 --> 01:04:38,929 | |
Работает он, по-моему, только на аналитском сейчас. | |
1522 | |
01:04:38,929 --> 01:04:40,929 | |
Там маленькая моделька под капотом, | |
1523 | |
01:04:40,929 --> 01:04:42,929 | |
LLM-ка, Helium 7b. | |
1524 | |
01:04:43,929 --> 01:04:47,929 | |
Но, да, не упор делают именно на скорости ответа. | |
1525 | |
01:04:47,929 --> 01:04:49,929 | |
То есть она действительно очень быстро | |
1526 | |
01:04:49,929 --> 01:04:51,929 | |
может вам отвечать. | |
1527 | |
01:04:51,929 --> 01:04:53,929 | |
И, по-моему, я могу ошибаться, | |
1528 | |
01:04:53,929 --> 01:04:55,929 | |
но, по-моему, они это делают | |
1529 | |
01:04:55,929 --> 01:04:58,929 | |
для всяких потоковых стримингов. | |
1530 | |
01:04:58,929 --> 01:05:00,929 | |
Сейчас не вспомню. | |
1531 | |
01:05:01,929 --> 01:05:04,929 | |
Экспериментальный конверсейшн лэй ай. | |
1532 | |
01:05:04,929 --> 01:05:06,929 | |
Ну, в общем, посмотрите. | |
1533 | |
01:05:06,929 --> 01:05:08,929 | |
Кстати, демки с этим Moshi | |
1534 | |
01:05:08,929 --> 01:05:10,929 | |
прям по твиттеру сильно разлетелись, | |
1535 | |
01:05:10,929 --> 01:05:11,929 | |
когда они зарелизились. | |
1536 | |
01:05:11,929 --> 01:05:13,929 | |
Потому что штучка действительно | |
1537 | |
01:05:13,929 --> 01:05:15,929 | |
такая няшная, забавная на потыкать. | |
1538 | |
01:05:15,929 --> 01:05:16,929 | |
Ну и там куча настроек. | |
1539 | |
01:05:16,929 --> 01:05:18,929 | |
Можно температуры менять. | |
1540 | |
01:05:18,929 --> 01:05:19,929 | |
Причем разные температуры. | |
1541 | |
01:05:19,929 --> 01:05:22,929 | |
Как для LLM-ки, так и для аудиогенерации. | |
1542 | |
01:05:22,929 --> 01:05:24,929 | |
Можно кучу всего настраивать. | |
1543 | |
01:05:25,929 --> 01:05:27,929 | |
Хорошо. | |
1544 | |
01:05:27,929 --> 01:05:29,929 | |
С Kutaisi Labs разобрались. | |
1545 | |
01:05:31,929 --> 01:05:33,929 | |
Всё, буду теперь Kutaisi. | |
1546 | |
01:05:35,929 --> 01:05:36,929 | |
Одиссея. | |
1547 | |
01:05:36,929 --> 01:05:37,929 | |
Одиссея. | |
1548 | |
01:05:37,929 --> 01:05:39,929 | |
Но не космическая. | |
1549 | |
01:05:39,929 --> 01:05:41,929 | |
А ижная Одиссея. | |
1550 | |
01:05:41,929 --> 01:05:42,929 | |
Это новый стартап. | |
1551 | |
01:05:42,929 --> 01:05:43,929 | |
И не греческая. | |
1552 | |
01:05:43,929 --> 01:05:44,929 | |
Не греческая. | |
1553 | |
01:05:44,929 --> 01:05:45,929 | |
Не настольная игра. | |
1554 | |
01:05:45,929 --> 01:05:47,929 | |
А есть Одиссия. | |
1555 | |
01:05:47,929 --> 01:05:49,929 | |
Шакал Одиссия, по-моему. | |
1556 | |
01:05:49,929 --> 01:05:51,929 | |
В общем-то, очередной стартап, | |
1557 | |
01:05:51,929 --> 01:05:53,929 | |
который решил потеснить Голливуд. | |
1558 | |
01:05:53,929 --> 01:05:55,929 | |
Помнится, у нас уже были такие стартапы. | |
1559 | |
01:05:55,929 --> 01:05:57,929 | |
На V назывался как-то. | |
1560 | |
01:05:59,929 --> 01:06:01,929 | |
Которые графику 3D-шную делали. | |
1561 | |
01:06:01,929 --> 01:06:02,929 | |
Не помню. | |
1562 | |
01:06:02,929 --> 01:06:03,929 | |
Где-то в ранних выпусках. | |
1563 | |
01:06:03,929 --> 01:06:05,929 | |
Я уже не вспомню. | |
1564 | |
01:06:05,929 --> 01:06:06,929 | |
Не Runway Melt. | |
1565 | |
01:06:06,929 --> 01:06:07,929 | |
Понятно, что. | |
1566 | |
01:06:07,929 --> 01:06:08,929 | |
А там было Waymo. | |
1567 | |
01:06:08,929 --> 01:06:09,929 | |
Нет. | |
1568 | |
01:06:09,929 --> 01:06:10,929 | |
Ну, в общем-то. | |
1569 | |
01:06:10,929 --> 01:06:12,929 | |
Стартап, который собирается, | |
1570 | |
01:06:12,929 --> 01:06:14,929 | |
если не потеснить, | |
1571 | |
01:06:14,929 --> 01:06:16,929 | |
то продаться Голливуду. | |
1572 | |
01:06:16,929 --> 01:06:18,929 | |
Они делают систему, | |
1573 | |
01:06:18,929 --> 01:06:20,929 | |
которая генерирует видео | |
1574 | |
01:06:20,929 --> 01:06:21,929 | |
с текста. | |
1575 | |
01:06:21,929 --> 01:06:22,929 | |
Текст-то видео. | |
1576 | |
01:06:22,929 --> 01:06:24,929 | |
И эти генерации | |
1577 | |
01:06:24,929 --> 01:06:26,929 | |
можно менять очень адаптивно. | |
1578 | |
01:06:26,929 --> 01:06:28,929 | |
Чуть ли не до каждого объекта. | |
1579 | |
01:06:28,929 --> 01:06:31,929 | |
Не для каждого фонового объекта. | |
1580 | |
01:06:31,929 --> 01:06:33,929 | |
Выделяешь травичку, меняешь. | |
1581 | |
01:06:33,929 --> 01:06:35,929 | |
Меняешь сцены, движения объектов. | |
1582 | |
01:06:35,929 --> 01:06:38,929 | |
Они пока не показали сам продукт. | |
1583 | |
01:06:38,929 --> 01:06:40,929 | |
Они только сделали достаточно | |
1584 | |
01:06:42,929 --> 01:06:44,929 | |
интересный ленд-ос, | |
1585 | |
01:06:44,929 --> 01:06:46,929 | |
в котором много еще написано хорошего | |
1586 | |
01:06:46,929 --> 01:06:48,929 | |
и показано, как это будет работать. | |
1587 | |
01:06:48,929 --> 01:06:52,929 | |
И что, мы не видели стартапа, | |
1588 | |
01:06:52,929 --> 01:06:54,929 | |
которые нам что-то показывают, | |
1589 | |
01:06:54,929 --> 01:06:55,929 | |
а потом не выпускают? | |
1590 | |
01:06:55,929 --> 01:06:56,929 | |
Ну, видели миллион раз. | |
1591 | |
01:06:56,929 --> 01:06:58,929 | |
Но тут собрались нехилые такие люди. | |
1592 | |
01:06:58,929 --> 01:06:59,929 | |
Тут собрались... | |
1593 | |
01:06:59,929 --> 01:07:01,929 | |
Большую часть времени о них говорим | |
1594 | |
01:07:01,929 --> 01:07:02,929 | |
на самом деле здесь. | |
1595 | |
01:07:02,929 --> 01:07:04,929 | |
Не, ну мы стараемся такие не врать вырезать, | |
1596 | |
01:07:04,929 --> 01:07:05,929 | |
на самом-то деле. | |
1597 | |
01:07:05,929 --> 01:07:07,929 | |
В Odyssey работают чуваки, | |
1598 | |
01:07:07,929 --> 01:07:09,929 | |
которые работали над Дюной, | |
1599 | |
01:07:09,929 --> 01:07:10,929 | |
над Мстителями. | |
1600 | |
01:07:10,929 --> 01:07:11,929 | |
Художники. | |
1601 | |
01:07:11,929 --> 01:07:12,929 | |
Реальные художники, | |
1602 | |
01:07:12,929 --> 01:07:14,929 | |
которые знают, что им нужно, | |
1603 | |
01:07:14,929 --> 01:07:16,929 | |
как нужно автоматизировать работу, | |
1604 | |
01:07:16,929 --> 01:07:17,929 | |
чтобы им было удобнее. | |
1605 | |
01:07:18,929 --> 01:07:19,929 | |
Вот. | |
1606 | |
01:07:19,929 --> 01:07:21,929 | |
А, еще ж забыл тоже сказать, | |
1607 | |
01:07:21,929 --> 01:07:23,929 | |
что вообще Odyssey занимался | |
1608 | |
01:07:23,929 --> 01:07:24,929 | |
самоуправляемыми машинами, | |
1609 | |
01:07:24,929 --> 01:07:26,929 | |
компьютер-виженом для машин. | |
1610 | |
01:07:26,929 --> 01:07:28,929 | |
И это одна из их фишек. | |
1611 | |
01:07:28,929 --> 01:07:30,929 | |
Они используют для создания 3D-сцен | |
1612 | |
01:07:30,929 --> 01:07:33,929 | |
данные со своих вот этих вот наработок | |
1613 | |
01:07:33,929 --> 01:07:35,929 | |
для самоуправляемых автомобилей. | |
1614 | |
01:07:35,929 --> 01:07:37,929 | |
То есть данные из реального мира | |
1615 | |
01:07:37,929 --> 01:07:38,929 | |
для обучения используют. | |
1616 | |
01:07:38,929 --> 01:07:40,929 | |
Что тоже достаточно интересный опыт. | |
1617 | |
01:07:40,929 --> 01:07:41,929 | |
Да, там вход до того, | |
1618 | |
01:07:41,929 --> 01:07:43,929 | |
что они, как я понял, | |
1619 | |
01:07:43,929 --> 01:07:46,929 | |
они не используют чужие данные вообще. | |
1620 | |
01:07:46,929 --> 01:07:47,929 | |
Да. | |
1621 | |
01:07:47,929 --> 01:07:48,929 | |
То есть они на своих учатся. | |
1622 | |
01:07:48,929 --> 01:07:51,929 | |
Ну и среди инвесторов у них и Google Ventures, | |
1623 | |
01:07:51,929 --> 01:07:53,929 | |
и Y-комбинатор, и DeepMind даже есть. | |
1624 | |
01:07:53,929 --> 01:07:55,929 | |
Точнее люди из DeepMind. | |
1625 | |
01:07:55,929 --> 01:07:57,929 | |
Так что ставки немаленькие. | |
1626 | |
01:07:59,929 --> 01:08:01,929 | |
Что у нас еще по видео? | |
1627 | |
01:08:01,929 --> 01:08:03,929 | |
Кстати, о генерации видео | |
1628 | |
01:08:03,929 --> 01:08:05,929 | |
наконец-то рановый email | |
1629 | |
01:08:05,929 --> 01:08:08,929 | |
открыл доступ к Gen3 Alpha для всех. | |
1630 | |
01:08:08,929 --> 01:08:11,929 | |
Примеры Gen3 Alpha, я надеюсь, | |
1631 | |
01:08:11,929 --> 01:08:12,929 | |
мы все уже видели. | |
1632 | |
01:08:12,929 --> 01:08:14,929 | |
И как минимум мы про него рассказывали. | |
1633 | |
01:08:14,929 --> 01:08:19,929 | |
На демках все было супер-пупер красиво. | |
1634 | |
01:08:19,929 --> 01:08:22,929 | |
На ранних тестерах тоже. | |
1635 | |
01:08:22,929 --> 01:08:25,929 | |
Но релиз случился. | |
1636 | |
01:08:25,929 --> 01:08:28,929 | |
Естественно вышло, | |
1637 | |
01:08:28,929 --> 01:08:30,929 | |
что не у всех получается с первого раза. | |
1638 | |
01:08:30,929 --> 01:08:33,929 | |
Ну ни у кого не получается с первого раза, | |
1639 | |
01:08:33,929 --> 01:08:34,929 | |
я так скажу. | |
1640 | |
01:08:34,929 --> 01:08:35,929 | |
Ну да. | |
1641 | |
01:08:35,929 --> 01:08:37,929 | |
Это вам предостережение. | |
1642 | |
01:08:37,929 --> 01:08:39,929 | |
Есть уникумы. | |
1643 | |
01:08:39,929 --> 01:08:41,929 | |
Там генерация дорогая, | |
1644 | |
01:08:41,929 --> 01:08:43,929 | |
и, соответственно, | |
1645 | |
01:08:43,929 --> 01:08:45,929 | |
чтобы получить хоть несколько генераций, | |
1646 | |
01:08:45,929 --> 01:08:46,929 | |
вам надо заплатить денег. | |
1647 | |
01:08:46,929 --> 01:08:48,929 | |
Там сразу все под подпиской. | |
1648 | |
01:08:48,929 --> 01:08:50,929 | |
И там со слов ребят, которые активно пользуются, | |
1649 | |
01:08:50,929 --> 01:08:52,929 | |
я видел, что хорошая и удачная генерация | |
1650 | |
01:08:52,929 --> 01:08:54,929 | |
где-то раз на 40 выходит. | |
1651 | |
01:08:54,929 --> 01:08:56,929 | |
Сколько это в деньгах будет, не помню. | |
1652 | |
01:08:56,929 --> 01:08:58,929 | |
По-моему, не баснословные бабки, | |
1653 | |
01:08:58,929 --> 01:08:59,929 | |
но не сильно приятно. | |
1654 | |
01:08:59,929 --> 01:09:01,929 | |
Хотя те примеры, которые выкатывали, | |
1655 | |
01:09:01,929 --> 01:09:04,929 | |
видел, может, рекламу Volvo офигительную сделали просто. | |
1656 | |
01:09:04,929 --> 01:09:05,929 | |
Да, видел. | |
1657 | |
01:09:05,929 --> 01:09:08,929 | |
Ну то есть там явно сотни генераций были, | |
1658 | |
01:09:08,929 --> 01:09:10,929 | |
но реклама очень классная вышла, как по мне. | |
1659 | |
01:09:11,929 --> 01:09:13,929 | |
Вот нужен такой сервис, | |
1660 | |
01:09:13,929 --> 01:09:17,929 | |
которому нужно будет платить только за удачные генерации. | |
1661 | |
01:09:17,929 --> 01:09:19,929 | |
Ага, найди таких дурачков. | |
1662 | |
01:09:21,929 --> 01:09:24,929 | |
И параллельно с Gen 3 Alpha | |
1663 | |
01:09:24,929 --> 01:09:28,929 | |
также релизнулась система Клинк. | |
1664 | |
01:09:28,929 --> 01:09:30,929 | |
Сервис Клинк. | |
1665 | |
01:09:30,929 --> 01:09:31,929 | |
Это китайский сервис, | |
1666 | |
01:09:31,929 --> 01:09:33,929 | |
мы про него вам рассказывали два выпуска назад, | |
1667 | |
01:09:33,929 --> 01:09:34,929 | |
в 35-м выпуске. | |
1668 | |
01:09:34,929 --> 01:09:36,929 | |
Он делает все то же самое, | |
1669 | |
01:09:36,929 --> 01:09:38,929 | |
генерирует из текста видео, | |
1670 | |
01:09:38,929 --> 01:09:40,929 | |
очень качественно это делает. | |
1671 | |
01:09:40,929 --> 01:09:42,929 | |
Но для того, чтобы им пользоваться, | |
1672 | |
01:09:42,929 --> 01:09:43,929 | |
надо знать китайский, | |
1673 | |
01:09:43,929 --> 01:09:45,929 | |
потому что сайт на китайском весь. | |
1674 | |
01:09:45,929 --> 01:09:46,929 | |
Но если вы пользуетесь переводчиками, | |
1675 | |
01:09:46,929 --> 01:09:47,929 | |
это не проблема. | |
1676 | |
01:09:47,929 --> 01:09:48,929 | |
Но вот другая проблема в том, | |
1677 | |
01:09:48,929 --> 01:09:49,929 | |
что нужен телефон китайский, | |
1678 | |
01:09:49,929 --> 01:09:51,929 | |
это уже большой ограничитель. | |
1679 | |
01:09:51,929 --> 01:09:52,929 | |
Но тем не менее, | |
1680 | |
01:09:52,929 --> 01:09:55,929 | |
с Клинком тоже уже интернет полнится примерами, | |
1681 | |
01:09:55,929 --> 01:09:57,929 | |
они тоже удачные. | |
1682 | |
01:09:57,929 --> 01:09:59,929 | |
И вот забавный прикол, | |
1683 | |
01:09:59,929 --> 01:10:02,929 | |
что у Клинка, что у Gen 3 Alpha есть... | |
1684 | |
01:10:02,929 --> 01:10:05,929 | |
Помнишь, когда выходили первые диффузионки, | |
1685 | |
01:10:05,929 --> 01:10:07,929 | |
там все были проблемы с тем, | |
1686 | |
01:10:07,929 --> 01:10:09,929 | |
что не могли пять пальцев нарисовать, | |
1687 | |
01:10:09,929 --> 01:10:11,929 | |
или текст не могли писать. | |
1688 | |
01:10:11,929 --> 01:10:16,929 | |
Вот с видеосетями тоже есть такой обобщенный баг. | |
1689 | |
01:10:16,929 --> 01:10:18,929 | |
Их наверняка не один такой баг, | |
1690 | |
01:10:18,929 --> 01:10:19,929 | |
но самый забавный, | |
1691 | |
01:10:19,929 --> 01:10:21,929 | |
который разлетелся сейчас тоже по Твиттерам, | |
1692 | |
01:10:21,929 --> 01:10:23,929 | |
по Телеграм-группам, | |
1693 | |
01:10:23,929 --> 01:10:25,929 | |
люди рисуют гимнастов. | |
1694 | |
01:10:25,929 --> 01:10:27,929 | |
Они делают генерацию с гимнастами. | |
1695 | |
01:10:27,929 --> 01:10:30,929 | |
И вот с гимнастами вообще не справляются эти нейронки, | |
1696 | |
01:10:30,929 --> 01:10:31,929 | |
либо со спортсменами. | |
1697 | |
01:10:31,929 --> 01:10:32,929 | |
Там какой-нибудь бегун, | |
1698 | |
01:10:32,929 --> 01:10:34,929 | |
которого ноги в землю проваливаются, | |
1699 | |
01:10:34,929 --> 01:10:36,929 | |
или гимнастка, которая подпрыгивает | |
1700 | |
01:10:36,929 --> 01:10:37,929 | |
и начинает в воздухе. | |
1701 | |
01:10:37,929 --> 01:10:39,929 | |
Там просто у нее ноги перетекают в руки, | |
1702 | |
01:10:39,929 --> 01:10:40,929 | |
руки в ноги. | |
1703 | |
01:10:40,929 --> 01:10:42,929 | |
И оно выглядит, в принципе, не так кринжово, | |
1704 | |
01:10:42,929 --> 01:10:44,929 | |
как, помнишь, раньше на первых порах, | |
1705 | |
01:10:44,929 --> 01:10:47,929 | |
там Gen 2 рисовал пиццу с лицом срастающегося. | |
1706 | |
01:10:47,929 --> 01:10:49,929 | |
Либо «Любимая невеста Ктулху». | |
1707 | |
01:10:49,929 --> 01:10:51,929 | |
Либо «Невеста Ктулху», да, классика. | |
1708 | |
01:10:51,909 --> 01:10:56,709 | |
Оно не так кринжово выглядит, оно выглядит так, что если издалека посмотреть, ты даже может не поймешь подвох, | |
1709 | |
01:10:56,709 --> 01:11:01,909 | |
а потом такой смотришь, блин, а как это так? Она подпрыгнула, сделала кульбиту, у нее руки вместо ног, а ноги вместо рук. | |
1710 | |
01:11:01,909 --> 01:11:06,909 | |
Короче, посмотрите с гимнастами видосы, это отдельный жанр искусства. | |
1711 | |
01:11:06,909 --> 01:11:12,909 | |
Но если так подумать, то уже какие большие скачки в технологии. | |
1712 | |
01:11:12,909 --> 01:11:17,909 | |
То есть сейчас недавно был Смит, у которого пицца исчезает в лице, и макароны, да. | |
1713 | |
01:11:17,909 --> 01:11:19,909 | |
А сейчас уже вон что. | |
1714 | |
01:11:19,909 --> 01:11:21,909 | |
Ну слушай, наши предсказания сбываются. | |
1715 | |
01:11:21,909 --> 01:11:23,909 | |
Сегодня с гимнастами проблема. | |
1716 | |
01:11:23,909 --> 01:11:28,909 | |
Мы же с тобой говорили в новогоднем выпуске, сделали ставку на то, что этот год будет годом генеративного видео, | |
1717 | |
01:11:28,909 --> 01:11:32,909 | |
и к концу года мы получим стриминги какие-нибудь, по-моему так с тобой говорили. | |
1718 | |
01:11:32,909 --> 01:11:34,909 | |
И я прям когда-то тогда с тобой... | |
1719 | |
01:11:34,909 --> 01:11:36,909 | |
Ну типа того, да, бесконечный сериал я ждал. | |
1720 | |
01:11:36,909 --> 01:11:41,909 | |
И когда я с тобой тогда забивался на это, мне казалось, что это самый нереалистичный прогноз. | |
1721 | |
01:11:41,909 --> 01:11:46,909 | |
А тут глядишь, что с такими темпами действительно мы к концу года получим что-то качественное стриминговое. | |
1722 | |
01:11:47,909 --> 01:11:50,909 | |
Очень быстро идёт, да, очень быстро. | |
1723 | |
01:11:50,909 --> 01:11:54,909 | |
Но не у всех идёт хорошо, не у всех, потому что... | |
1724 | |
01:11:54,909 --> 01:11:57,909 | |
Ой, это моя любимая часть сегодняшнего подкаста. | |
1725 | |
01:11:57,909 --> 01:12:03,909 | |
Мы в прошлый раз говорили, что Фигма релизнула и функционал. | |
1726 | |
01:12:03,909 --> 01:12:09,909 | |
Напомним, функционал такой, что ты пишешь текст, какой интерфейс ты хочешь получить, | |
1727 | |
01:12:09,909 --> 01:12:11,909 | |
и Фигма его рисует по промпту. | |
1728 | |
01:12:11,909 --> 01:12:14,909 | |
Строит за тебя интерфейс. | |
1729 | |
01:12:14,909 --> 01:12:16,909 | |
Так вот, Фигма выключила эту функцию. | |
1730 | |
01:12:16,909 --> 01:12:18,909 | |
Она недолго продержалась. | |
1731 | |
01:12:18,909 --> 01:12:21,909 | |
И не потому, что она работает плохо, | |
1732 | |
01:12:21,909 --> 01:12:28,909 | |
а потому что какой-то чувак сказал, напиши мне, пожалуйста, приложение, которое погоду показывает. | |
1733 | |
01:12:28,909 --> 01:12:30,909 | |
Ну, погодное приложение. | |
1734 | |
01:12:30,909 --> 01:12:36,909 | |
И Фигма нарисовала ему точь-в-точь приложение, как у Apple на айфоне. | |
1735 | |
01:12:37,909 --> 01:12:43,909 | |
Прям один в один с закруглениями, с этими классическими, там, со стрелочками и прочим. | |
1736 | |
01:12:44,909 --> 01:12:45,909 | |
Всё как там. | |
1737 | |
01:12:45,909 --> 01:12:53,909 | |
И другие пользователи тоже начали замечать, что многие генерации похожи очень сильно на суперпопулярные сервисы. | |
1738 | |
01:12:54,909 --> 01:13:02,909 | |
И в связи с этим пошёл слушок, что, возможно, Фигма-то обучила свою модель на данных пользователей, | |
1739 | |
01:13:03,909 --> 01:13:05,909 | |
о чём нет в пользовательском соглашении. | |
1740 | |
01:13:06,909 --> 01:13:08,909 | |
И вот пока что всё это и отключили. | |
1741 | |
01:13:08,909 --> 01:13:12,909 | |
Ну, кстати, не факт, что они прямо на данных пользователей учали. | |
1742 | |
01:13:14,909 --> 01:13:15,909 | |
Посмотрим, что они ответят. | |
1743 | |
01:13:15,909 --> 01:13:21,909 | |
Они-то отключили, но ещё надо им выдать расширенный ответ, как так получилось. | |
1744 | |
01:13:21,909 --> 01:13:25,909 | |
Конечно, то, что они резко это отключили, явно намекает на то, что там какие-то проблемки есть. | |
1745 | |
01:13:26,909 --> 01:13:28,909 | |
Наверное, да. | |
1746 | |
01:13:31,909 --> 01:13:32,909 | |
Хорошо. | |
1747 | |
01:13:33,909 --> 01:13:35,909 | |
Ну, бывает, бывает. Будем следить. | |
1748 | |
01:13:36,909 --> 01:13:38,909 | |
А вот Perplexity тоже не стоит на месте. | |
1749 | |
01:13:38,909 --> 01:13:48,909 | |
Они обновили свой функционал платной подписки ProSearch, завезли туда некоторые новые фишки, | |
1750 | |
01:13:48,909 --> 01:13:56,909 | |
типа обработки запросов сложных, рассуждения, улучшили рассуждения в рамках одного диалога | |
1751 | |
01:13:56,909 --> 01:13:58,909 | |
и добавили интеграцию с Vulfram Alpha. | |
1752 | |
01:13:58,909 --> 01:13:59,909 | |
Это прям прикольно. | |
1753 | |
01:13:59,909 --> 01:14:03,909 | |
Теперь там можно прямо математику обсчитывать и графики строить через Vulfram. | |
1754 | |
01:14:03,909 --> 01:14:06,909 | |
Вообще странно, что с Vulfram так поздно кто-то заинтегрировался, | |
1755 | |
01:14:06,909 --> 01:14:12,909 | |
потому что кажется, будто бы та самая штука, которая должна хорошо на машинные всякие лмки ложиться. | |
1756 | |
01:14:15,909 --> 01:14:16,909 | |
Вот. | |
1757 | |
01:14:18,909 --> 01:14:20,909 | |
Да. Что у нас ещё было? | |
1758 | |
01:14:20,909 --> 01:14:22,909 | |
Мы сейчас галопом по Европе, потому что много... | |
1759 | |
01:14:22,909 --> 01:14:26,909 | |
Вообще перед выпуском казалось, что новостей нет, но вот когда сценарий составляли, | |
1760 | |
01:14:26,909 --> 01:14:29,909 | |
оказалось, что мелких новостей много. Попробуем про всё рассказать. | |
1761 | |
01:14:33,909 --> 01:14:35,909 | |
Ну что? Что там в Eleven Labs? | |
1762 | |
01:14:36,909 --> 01:14:42,909 | |
Давай, это больше твоя тема, ты расскажи про Eleven Labs, я лучше расскажу про Minecraft. | |
1763 | |
01:14:42,909 --> 01:14:44,909 | |
А, кстати, да, ты хорош. | |
1764 | |
01:14:44,909 --> 01:14:48,909 | |
В Eleven Labs там небольшая новость, но она прикольная своей демкой. | |
1765 | |
01:14:48,909 --> 01:14:53,909 | |
Они представили инструмент Voice Isolator, который удаляет шумы из записи голоса. | |
1766 | |
01:14:53,909 --> 01:14:56,909 | |
Таких инструментов вроде уже немало, но хороших на самом деле на рынке маловато, | |
1767 | |
01:14:56,909 --> 01:15:01,909 | |
и мы сегодня в сервисах вам даже один посоветуем, который я на практике успел использовать. | |
1768 | |
01:15:01,909 --> 01:15:07,909 | |
Так вот, Voice Isolator, ну, ты говоришь в микрофон, он удаляет шумы, понятно, | |
1769 | |
01:15:07,909 --> 01:15:09,909 | |
но если вы посмотрите демку, она очень забавная. | |
1770 | |
01:15:09,909 --> 01:15:12,909 | |
Чувак стоит на крыше, рядом с ним стоит какой-то второй чувак, | |
1771 | |
01:15:12,909 --> 01:15:16,909 | |
который дует на него с промышленного пылесоса прямо в лицо ему. | |
1772 | |
01:15:16,909 --> 01:15:18,909 | |
Этот чел что-то там пытается говорить в микрофон, | |
1773 | |
01:15:18,909 --> 01:15:22,909 | |
и потом Voice Isolator полностью удаляет шум пылесоса. | |
1774 | |
01:15:22,909 --> 01:15:25,909 | |
Я не успел попробовать, работает ли оно на самом деле так, | |
1775 | |
01:15:25,909 --> 01:15:27,909 | |
но если да, то это прям тоже очень классный результат. | |
1776 | |
01:15:28,909 --> 01:15:31,909 | |
Попробуйте, напишите в комментариях на ютубе, | |
1777 | |
01:15:31,909 --> 01:15:33,909 | |
либо в нашем чате, как у вас там получилось. | |
1778 | |
01:15:34,909 --> 01:15:37,909 | |
Да, я гадаю, на русском языке, наверное, и не будет работать. | |
1779 | |
01:15:37,909 --> 01:15:41,909 | |
Вот не факт. Чем дальше, тем лучше эти сервисы с русским работают. | |
1780 | |
01:15:41,909 --> 01:15:44,909 | |
В сервисах, мы сегодня попозже вам расскажем про один сервис, | |
1781 | |
01:15:44,909 --> 01:15:46,909 | |
он с русским прям отлично сработал. | |
1782 | |
01:15:46,909 --> 01:15:50,909 | |
То есть уже времена того, как это работало с Adobe Behind the Speech, | |
1783 | |
01:15:50,909 --> 01:15:51,909 | |
они вроде как проходят. | |
1784 | |
01:15:52,909 --> 01:15:55,909 | |
И с языками более-менее популярными, более-менее нормально все работает. | |
1785 | |
01:15:56,909 --> 01:15:58,909 | |
Так вот, что же там с Майнкрафтом-то случилось? | |
1786 | |
01:16:00,909 --> 01:16:03,909 | |
В Майнкрафте начали тренировать и агентов. | |
1787 | |
01:16:04,909 --> 01:16:06,909 | |
Почему это прикольно? | |
1788 | |
01:16:06,909 --> 01:16:11,909 | |
Потому что Майнкрафт — это достаточно понятная среда для тренировки, | |
1789 | |
01:16:11,909 --> 01:16:13,909 | |
там очень хорошо настроенная физика, | |
1790 | |
01:16:14,909 --> 01:16:16,909 | |
при этом система мира построена на кубах. | |
1791 | |
01:16:17,909 --> 01:16:19,909 | |
Там же все кубики в Майнкрафте, да, | |
1792 | |
01:16:19,909 --> 01:16:23,909 | |
и поэтому с ними взаимодействовать, скажем так, немножко проще, | |
1793 | |
01:16:23,909 --> 01:16:27,909 | |
чем с какой-нибудь другой там вселенной вымышленной. | |
1794 | |
01:16:28,909 --> 01:16:30,909 | |
Но физика при этом там очень крутая. | |
1795 | |
01:16:30,909 --> 01:16:33,909 | |
И чуваки сделали агента под названием Omni Jarvis, | |
1796 | |
01:16:33,909 --> 01:16:38,909 | |
который как раз обучился как агент, | |
1797 | |
01:16:38,909 --> 01:16:41,909 | |
вот в этом самом Майнкрафте он тренировался, | |
1798 | |
01:16:41,909 --> 01:16:46,909 | |
и может исполнять там всякое. | |
1799 | |
01:16:47,909 --> 01:16:50,909 | |
То есть ты ему говоришь там, построи то-то, он идет и строит. | |
1800 | |
01:16:50,909 --> 01:16:53,909 | |
Может под испанец танцевать? Или краковяк? | |
1801 | |
01:16:54,909 --> 01:16:57,909 | |
Ну танцевать, наверное, танцевать не знаю, | |
1802 | |
01:16:57,909 --> 01:17:02,909 | |
но ты же знаешь, что в Майнкрафте в том числе, например, можно построить процессор. | |
1803 | |
01:17:06,909 --> 01:17:10,909 | |
Более того, там даже можно лэмб построить буквально пару недель назад. | |
1804 | |
01:17:10,909 --> 01:17:13,909 | |
Да, чуваки рассказывали, как чуваки лэмбку, | |
1805 | |
01:17:13,909 --> 01:17:18,909 | |
и я видел, как чувак построил процессор, графический ускоритель, | |
1806 | |
01:17:18,909 --> 01:17:24,909 | |
вводил на нем код, сделал дисплей на кубах, на этих майнкрафтских, | |
1807 | |
01:17:24,909 --> 01:17:26,909 | |
и играл в Майнкрафте в Майнкрафт. | |
1808 | |
01:17:27,909 --> 01:17:30,909 | |
То есть он внутри Майнкрафта сделал Майнкрафт. | |
1809 | |
01:17:31,909 --> 01:17:35,909 | |
Ну там, с правильностью сказать, там есть ограничения. | |
1810 | |
01:17:37,909 --> 01:17:40,909 | |
Я вот сказал, что они лэмбку сделали, на самом деле не лэмбку, | |
1811 | |
01:17:40,909 --> 01:17:45,909 | |
а там сделали сетку, которая распознает буквы. | |
1812 | |
01:17:45,909 --> 01:17:49,909 | |
Ты бегаешь по специальному полю персонажа, например, в форме буквы 66, | |
1813 | |
01:17:49,909 --> 01:17:50,909 | |
и оно распознает букву. | |
1814 | |
01:17:50,909 --> 01:17:53,909 | |
Наверное, лэмбку там заимплементировать было бы сложновато, | |
1815 | |
01:17:53,909 --> 01:17:55,909 | |
потому что надо сильно больше элементов. | |
1816 | |
01:17:55,909 --> 01:18:00,909 | |
Но в целом, этот агент Omnijarvis прикольно, | |
1817 | |
01:18:00,909 --> 01:18:04,909 | |
потому что Майнкрафт же это суперконтролируемая, как ты правильно сказал, | |
1818 | |
01:18:04,909 --> 01:18:07,909 | |
несложная среда, в которой можно прямо тестировать агентов. | |
1819 | |
01:18:07,909 --> 01:18:09,909 | |
Агенты — это новый тренд. | |
1820 | |
01:18:09,909 --> 01:18:12,909 | |
И мне удивительно будет, если их на Майнкрафте первой версии хорошо натаскают, | |
1821 | |
01:18:12,909 --> 01:18:14,909 | |
а потом уже в реальный мир. | |
1822 | |
01:18:14,909 --> 01:18:16,909 | |
Или в какую-нибудь генерацию NVIDIA. | |
1823 | |
01:18:16,909 --> 01:18:20,909 | |
Будет прикольно, если NVIDIA тренировала своих агентов в Майнкрафте, | |
1824 | |
01:18:20,909 --> 01:18:21,909 | |
мы просто не знаем. | |
1825 | |
01:18:23,909 --> 01:18:24,909 | |
Вполне возможно. | |
1826 | |
01:18:26,909 --> 01:18:27,909 | |
Андрей Карпатый. | |
1827 | |
01:18:27,909 --> 01:18:28,909 | |
Повезло к твоему любимчику. | |
1828 | |
01:18:28,909 --> 01:18:29,909 | |
Конечно, конечно. | |
1829 | |
01:18:29,909 --> 01:18:32,909 | |
Андрей Карпатый, он в принципе любимчик многих. | |
1830 | |
01:18:33,909 --> 01:18:35,909 | |
Он обычно курсы выкатывает, | |
1831 | |
01:18:35,909 --> 01:18:39,909 | |
а тут он выступил на церемонии награждения победителя одного Яихокатона | |
1832 | |
01:18:39,909 --> 01:18:41,909 | |
и задвинул прикольную парадигму. | |
1833 | |
01:18:41,909 --> 01:18:43,909 | |
Он там много чего рассказывал, | |
1834 | |
01:18:43,909 --> 01:18:45,909 | |
можно посмотреть, у него там часовое выступление. | |
1835 | |
01:18:45,909 --> 01:18:49,909 | |
И в частности он говорил про LLM OS, | |
1836 | |
01:18:49,909 --> 01:18:52,909 | |
то есть Large Language Model Операционная Система. | |
1837 | |
01:18:53,909 --> 01:18:56,909 | |
И суть не в том, что он там разработал какую-то операционку новую, | |
1838 | |
01:18:56,909 --> 01:19:00,909 | |
суть в том, что он сравнивает LLM-ки с процессорами. | |
1839 | |
01:19:00,909 --> 01:19:02,909 | |
Он говорит, что представьте, что LLM в будущем, | |
1840 | |
01:19:02,909 --> 01:19:05,909 | |
мощный LLM, более мощный, чем сейчас, | |
1841 | |
01:19:05,909 --> 01:19:08,909 | |
по факту будут софтверными процессорами, | |
1842 | |
01:19:08,909 --> 01:19:11,909 | |
на базе которых будут запускаться все задачи. | |
1843 | |
01:19:11,909 --> 01:19:13,909 | |
Байтами там условно будут токены, | |
1844 | |
01:19:13,909 --> 01:19:16,909 | |
мы загружаем туда понимание environment, | |
1845 | |
01:19:16,909 --> 01:19:19,909 | |
что-то типа World Model, да? | |
1846 | |
01:19:20,909 --> 01:19:22,909 | |
Загружаем туда, например, описание программы | |
1847 | |
01:19:22,909 --> 01:19:24,909 | |
и говорим, как надо действовать. | |
1848 | |
01:19:24,909 --> 01:19:27,909 | |
И на базе LLM-ки все вычисления производятся. | |
1849 | |
01:19:28,909 --> 01:19:31,909 | |
И он эту штуку, эту концепцию назвал LLM OS, | |
1850 | |
01:19:31,909 --> 01:19:33,909 | |
Операционной Системой на базе LLM, | |
1851 | |
01:19:33,909 --> 01:19:35,909 | |
и в принципе, ну, кто-то скажет ерунда, | |
1852 | |
01:19:35,909 --> 01:19:38,909 | |
а мне прям понравилось, прям идея интересная. | |
1853 | |
01:19:39,909 --> 01:19:41,909 | |
Да, мне тоже такое нравится. | |
1854 | |
01:19:41,909 --> 01:19:44,909 | |
Это же по сути на уровне с этими World Model, | |
1855 | |
01:19:44,909 --> 01:19:47,909 | |
когда у тебя операционный режим, | |
1856 | |
01:19:48,909 --> 01:19:50,909 | |
интерфейс на лету. | |
1857 | |
01:19:50,909 --> 01:19:53,909 | |
Навряд ли там можно будет все программы запустить. | |
1858 | |
01:19:53,909 --> 01:19:56,909 | |
Понятно, что ты по Zoom не созвонишься | |
1859 | |
01:19:56,909 --> 01:19:59,909 | |
с виртуальным Витей или виртуальным Лешей, | |
1860 | |
01:19:59,909 --> 01:20:01,909 | |
там тебе надо с реальными людьми разговаривать. | |
1861 | |
01:20:01,909 --> 01:20:04,909 | |
Но генерация какого-нибудь контента, | |
1862 | |
01:20:04,909 --> 01:20:07,909 | |
аудио, видео, игрового контента на таких операционках | |
1863 | |
01:20:07,909 --> 01:20:10,909 | |
вообще, мне кажется, в будущем могут состояться. | |
1864 | |
01:20:10,909 --> 01:20:12,909 | |
Ну да, да. Вот на них как раз и будут | |
1865 | |
01:20:12,909 --> 01:20:15,909 | |
те самые бесконечные сериалы появляться. | |
1866 | |
01:20:16,909 --> 01:20:18,909 | |
Сто процентов. | |
1867 | |
01:20:19,909 --> 01:20:22,909 | |
Ну что, а что еще у нас? Все. | |
1868 | |
01:20:24,909 --> 01:20:29,909 | |
И теперь мы переходим к науке и технике. | |
1869 | |
01:20:30,909 --> 01:20:32,909 | |
И начнем мы с новостей. | |
1870 | |
01:20:32,909 --> 01:20:35,909 | |
Мы не так давно рассказывали про робота Ричи-2 | |
1871 | |
01:20:35,909 --> 01:20:38,909 | |
от Hygen Face и Polin Robotics. | |
1872 | |
01:20:38,909 --> 01:20:41,909 | |
Возможно, он вам запомнился тем, что он стремно выглядит. | |
1873 | |
01:20:41,909 --> 01:20:43,909 | |
Ужасно просто. | |
1874 | |
01:20:43,909 --> 01:20:45,909 | |
Может быть, да. | |
1875 | |
01:20:45,909 --> 01:20:47,909 | |
Но новость в чем? | |
1876 | |
01:20:47,909 --> 01:20:50,909 | |
Новость не про Ричи-2, а про исследователей из Стэнфорда, | |
1877 | |
01:20:50,909 --> 01:20:54,909 | |
которые выложили инструкции, | |
1878 | |
01:20:54,909 --> 01:20:59,909 | |
как создать робота под названием Human Plus. | |
1879 | |
01:21:00,909 --> 01:21:02,909 | |
Это open-source робот, собственно говоря, | |
1880 | |
01:21:02,909 --> 01:21:06,909 | |
который тоже по принципу Ричи-2 работает. | |
1881 | |
01:21:06,909 --> 01:21:08,909 | |
Его можно собрать самостоятельно. | |
1882 | |
01:21:08,909 --> 01:21:10,909 | |
И в чем прикол? Что этот робот Human Plus, | |
1883 | |
01:21:10,909 --> 01:21:15,909 | |
он может обучаться движением через наблюдение. | |
1884 | |
01:21:15,909 --> 01:21:18,909 | |
То есть он на тебя смотрит, ты ему машешь рукой, | |
1885 | |
01:21:18,909 --> 01:21:22,909 | |
и он, по идее, этому учится и тоже машет рукой тебе в ответ. | |
1886 | |
01:21:26,909 --> 01:21:27,909 | |
Это все? | |
1887 | |
01:21:27,909 --> 01:21:29,909 | |
Что ты хотел сказать? | |
1888 | |
01:21:29,909 --> 01:21:31,909 | |
Я... | |
1889 | |
01:21:31,909 --> 01:21:34,909 | |
У меня денег нет, но куда остановиться в очередь? | |
1890 | |
01:21:34,909 --> 01:21:36,909 | |
Я хочу. | |
1891 | |
01:21:37,909 --> 01:21:39,909 | |
Да, там же они еще... | |
1892 | |
01:21:39,909 --> 01:21:41,909 | |
Да, то есть было бы время, | |
1893 | |
01:21:41,909 --> 01:21:44,909 | |
потому что так-то они еще выложили список компонентов, | |
1894 | |
01:21:44,909 --> 01:21:45,909 | |
с чего он сделан. | |
1895 | |
01:21:45,909 --> 01:21:47,909 | |
Ты его, в принципе, можешь сам собрать. | |
1896 | |
01:21:47,909 --> 01:21:49,909 | |
Да, сам в этом смысл, да. | |
1897 | |
01:21:49,909 --> 01:21:51,909 | |
Да, да. Open-source на Human Plus. | |
1898 | |
01:21:51,909 --> 01:21:54,909 | |
Ну и выглядит он на самом деле. | |
1899 | |
01:21:54,909 --> 01:21:56,909 | |
Он выглядит не как человек, он выглядит как робот, | |
1900 | |
01:21:56,909 --> 01:21:58,909 | |
но он не выглядит ужасающе. | |
1901 | |
01:21:58,909 --> 01:22:01,909 | |
Вот эффекта зловещей Дарины почему-то на Human Plus я вообще не встретил. | |
1902 | |
01:22:05,909 --> 01:22:08,909 | |
Ну, пока вы откладываете денежки и смотрите, | |
1903 | |
01:22:08,909 --> 01:22:10,909 | |
что там надо купить для того, чтобы собрать Human Plus, | |
1904 | |
01:22:10,909 --> 01:22:13,909 | |
расскажу вам про ученых из Нидерландского университета | |
1905 | |
01:22:13,909 --> 01:22:16,909 | |
с очень сложным названием, даже не буду пытаться прочитать. | |
1906 | |
01:22:16,909 --> 01:22:19,909 | |
Там с N начинается, N заканчивается. | |
1907 | |
01:22:19,909 --> 01:22:20,909 | |
В чем суть? | |
1908 | |
01:22:20,909 --> 01:22:24,909 | |
Ребята с помощью нейрошунта смогли читать мысли обезьянок. | |
1909 | |
01:22:26,909 --> 01:22:29,909 | |
Вот прям всунули, прям как Илону Ларионовичу Масковичу, | |
1910 | |
01:22:29,909 --> 01:22:31,909 | |
человеку в голову, так они обезьянку... | |
1911 | |
01:22:31,909 --> 01:22:32,909 | |
О чем думают обезьянки? | |
1912 | |
01:22:32,909 --> 01:22:35,909 | |
Ну, там есть трюк, конечно. | |
1913 | |
01:22:35,909 --> 01:22:38,909 | |
Они не мысли обезьянок на самом-то деле исследовали, | |
1914 | |
01:22:38,909 --> 01:22:41,909 | |
они исследовали, насколько можно с помощью нейронок | |
1915 | |
01:22:43,909 --> 01:22:45,909 | |
предсказывать то, что обезьяна видит. | |
1916 | |
01:22:45,909 --> 01:22:49,909 | |
Они ей показывали картинку, снимали сигнал | |
1917 | |
01:22:49,909 --> 01:22:53,909 | |
и нейронками, докручивая его, добивались какого-то... | |
1918 | |
01:22:54,909 --> 01:22:56,909 | |
какого-то выходного изображения. | |
1919 | |
01:22:56,909 --> 01:23:00,909 | |
Мы такие эксперименты уже видели, и там все было очень плохо. | |
1920 | |
01:23:00,909 --> 01:23:03,909 | |
Да, что-то было с МРТ и человеком. | |
1921 | |
01:23:03,909 --> 01:23:05,909 | |
Да, да, а тут шум, тут не МРТ. | |
1922 | |
01:23:05,909 --> 01:23:07,909 | |
И качество прямо офигительное. | |
1923 | |
01:23:07,909 --> 01:23:10,909 | |
То есть если вы пройдете по самой работе, | |
1924 | |
01:23:10,909 --> 01:23:12,909 | |
посмотрите на то, что у них получилось, | |
1925 | |
01:23:12,909 --> 01:23:16,909 | |
там работа очень такая развесистая с примерами, | |
1926 | |
01:23:16,909 --> 01:23:19,909 | |
то попадание, ну, конечно, не стопроцентное, | |
1927 | |
01:23:19,909 --> 01:23:22,909 | |
но условно, если это какой-нибудь паук, | |
1928 | |
01:23:22,909 --> 01:23:24,909 | |
то на выходе мы тоже имеем паука. | |
1929 | |
01:23:24,909 --> 01:23:27,909 | |
Да, у него больше ножек, но по цвету, по композиции, | |
1930 | |
01:23:27,909 --> 01:23:30,909 | |
по количеству каких-то объектов совпадают очень круто. | |
1931 | |
01:23:30,909 --> 01:23:32,909 | |
То есть не стопроцентное попадание, | |
1932 | |
01:23:32,909 --> 01:23:37,909 | |
процентов 80, но очень четко передает суть. | |
1933 | |
01:23:37,909 --> 01:23:41,909 | |
Единственное, что все, что эти нейросеточки рисуют на выходе, | |
1934 | |
01:23:41,909 --> 01:23:43,909 | |
вот оно все один в один похоже на то, | |
1935 | |
01:23:43,909 --> 01:23:45,909 | |
что мне в снах страшно снится. | |
1936 | |
01:23:45,909 --> 01:23:47,909 | |
То есть, вы знаете, в страшных снах, | |
1937 | |
01:23:47,909 --> 01:23:51,909 | |
когда спишь, да, у тебя там какие-нибудь хрени такие бывают, | |
1938 | |
01:23:51,909 --> 01:23:54,909 | |
которых в жизни нет, и они из-за этого противными кажутся, | |
1939 | |
01:23:54,909 --> 01:23:57,909 | |
такими очень гадкими, неестественными. | |
1940 | |
01:23:57,909 --> 01:23:59,909 | |
Вот тут примерно тот же эффект. | |
1941 | |
01:23:59,909 --> 01:24:01,909 | |
Что-то похоже на зловещую долину, | |
1942 | |
01:24:01,909 --> 01:24:04,909 | |
но в отношении, в принципе, к физическому миру, | |
1943 | |
01:24:04,909 --> 01:24:06,909 | |
а не к человеку. | |
1944 | |
01:24:06,909 --> 01:24:08,909 | |
Но результат прям вау. | |
1945 | |
01:24:08,909 --> 01:24:10,909 | |
Если это делают шунтом на обезьянках, | |
1946 | |
01:24:10,909 --> 01:24:13,909 | |
я думаю, на человеке маск тоже может это делать, | |
1947 | |
01:24:13,909 --> 01:24:18,909 | |
у них недавно был стрим у нейролинка, | |
1948 | |
01:24:18,909 --> 01:24:21,909 | |
они рассказывали, там часовой стрим в Твиттере, | |
1949 | |
01:24:21,909 --> 01:24:23,909 | |
можете посмотреть, они рассказывают, | |
1950 | |
01:24:23,909 --> 01:24:27,909 | |
что они чуть ли не телепатические способности уже начинают тестировать | |
1951 | |
01:24:27,909 --> 01:24:33,909 | |
и пытаются научить людей управлять их роботом, | |
1952 | |
01:24:33,909 --> 01:24:36,909 | |
как он там называется, Атласом, по-моему. | |
1953 | |
01:24:36,909 --> 01:24:41,909 | |
Атлас, да, которого нормально еще не презентовали особо нигде. | |
1954 | |
01:24:41,909 --> 01:24:43,909 | |
Да, да. | |
1955 | |
01:24:43,909 --> 01:24:50,909 | |
Вот такие вот у нас продвижения с шунтами в мозгах матрицы, как есть. | |
1956 | |
01:24:50,909 --> 01:24:55,909 | |
Так, от шунтов в мозгах перейдем к, наверное, | |
1957 | |
01:24:55,909 --> 01:24:59,909 | |
самой неожиданной части рубрики «Наука и техника», | |
1958 | |
01:24:59,909 --> 01:25:01,909 | |
по крайней мере для меня неожиданная, | |
1959 | |
01:25:01,909 --> 01:25:03,909 | |
она будет про OpenAI. | |
1960 | |
01:25:03,909 --> 01:25:08,909 | |
OpenAI запартнерился с лабораторией под названием L.A.N.L., | |
1961 | |
01:25:08,909 --> 01:25:11,909 | |
Национальная лаборатория Лос-Алмос. | |
1962 | |
01:25:11,909 --> 01:25:15,909 | |
Здесь, возможно, у кого-то уже что-то щелкнуло в памяти, | |
1963 | |
01:25:15,909 --> 01:25:18,909 | |
но если нет, то я дальше расскажу. | |
1964 | |
01:25:18,909 --> 01:25:23,909 | |
Короче, студенты этой лаборатории, | |
1965 | |
01:25:23,909 --> 01:25:25,909 | |
студенты и работники этой лаборатории | |
1966 | |
01:25:25,909 --> 01:25:28,909 | |
будут распользовать новейшие GPT-4.0, | |
1967 | |
01:25:28,909 --> 01:25:31,909 | |
даже еще те версии, которые в паблик не релизнулись, | |
1968 | |
01:25:31,909 --> 01:25:35,909 | |
для того, чтобы помогать себе в работе. | |
1969 | |
01:25:36,909 --> 01:25:41,909 | |
То есть будет модель визуально следить за аномалиями | |
1970 | |
01:25:41,909 --> 01:25:43,909 | |
в культивировании клеток, предупреждать о том, | |
1971 | |
01:25:43,909 --> 01:25:45,909 | |
когда нужно выпишаться человеку, | |
1972 | |
01:25:45,909 --> 01:25:48,909 | |
и в других биологических исследованиях | |
1973 | |
01:25:48,909 --> 01:25:50,909 | |
будет использоваться как такой, | |
1974 | |
01:25:50,909 --> 01:25:52,909 | |
ну, не как полноценный ученый, | |
1975 | |
01:25:52,909 --> 01:25:53,909 | |
но как своего рода лаборант, | |
1976 | |
01:25:53,909 --> 01:25:58,909 | |
скорее, такой вот искусственно-интеллектуальный лаборант, | |
1977 | |
01:25:58,909 --> 01:26:00,909 | |
который будет помогать людям. | |
1978 | |
01:26:00,909 --> 01:26:03,909 | |
И, казалось бы, круто, | |
1979 | |
01:26:03,909 --> 01:26:05,909 | |
больше клеток накультивируем здоровых, | |
1980 | |
01:26:05,909 --> 01:26:07,909 | |
но все бы ничего, | |
1981 | |
01:26:07,909 --> 01:26:10,909 | |
но вот эта лаборатория Лос-Альмас | |
1982 | |
01:26:10,909 --> 01:26:13,909 | |
это самая лаборатория, | |
1983 | |
01:26:13,909 --> 01:26:17,909 | |
в которой атомную бомбу сделали в свое время | |
1984 | |
01:26:17,909 --> 01:26:20,909 | |
в рамках Манхэттского проекта. | |
1985 | |
01:26:20,909 --> 01:26:23,909 | |
И они утверждают, что им нужен | |
1986 | |
01:26:23,909 --> 01:26:26,909 | |
вот новейший черед GPT-4.0 | |
1987 | |
01:26:26,909 --> 01:26:29,909 | |
исключительно в биологических исследованиях | |
1988 | |
01:26:29,909 --> 01:26:30,909 | |
и мирных целях, | |
1989 | |
01:26:30,909 --> 01:26:34,909 | |
прям было подчеркнуто, в мирных целях. | |
1990 | |
01:26:34,909 --> 01:26:39,909 | |
Не знаю, совпадение, случайность не случайна, конечно. | |
1991 | |
01:26:39,909 --> 01:26:41,909 | |
Не хочется в это верить. | |
1992 | |
01:26:41,909 --> 01:26:46,909 | |
Ну, такое, такое. | |
1993 | |
01:26:46,909 --> 01:26:50,909 | |
Уже ж было много в свое время новостей, | |
1994 | |
01:26:50,909 --> 01:26:53,909 | |
что ЛМКи могут там всякие отравляющие вещества придумывать, | |
1995 | |
01:26:53,909 --> 01:26:58,909 | |
яды и прочее. | |
1996 | |
01:26:58,909 --> 01:27:01,909 | |
Блин, стрёмно это что-то с той точки зрения, | |
1997 | |
01:27:01,909 --> 01:27:04,909 | |
что мы будто бы в комиксе каком-то живем. | |
1998 | |
01:27:04,909 --> 01:27:07,909 | |
Понятно, что это просто совпадение. | |
1999 | |
01:27:07,909 --> 01:27:11,909 | |
А с другой стороны, если там что-то такое произойдет, | |
2000 | |
01:27:11,909 --> 01:27:12,909 | |
то все же будут говорить, | |
2001 | |
01:27:12,909 --> 01:27:14,909 | |
вот, вот, вы что, не видели? | |
2002 | |
01:27:14,909 --> 01:27:17,909 | |
Вот оно ж, вот, там же ядерка была, | |
2003 | |
01:27:17,909 --> 01:27:19,909 | |
вот поэтому, ну что? | |
2004 | |
01:27:19,909 --> 01:27:20,909 | |
Ну, да. | |
2005 | |
01:27:20,909 --> 01:27:22,909 | |
Это, конечно, странно. | |
2006 | |
01:27:22,909 --> 01:27:25,909 | |
Но, с другой стороны, лаборатория-то, | |
2007 | |
01:27:25,909 --> 01:27:27,909 | |
серьезная лаборатория, | |
2008 | |
01:27:27,909 --> 01:27:29,909 | |
может быть, и неплохо, что они будут внедрять | |
2009 | |
01:27:29,909 --> 01:27:34,909 | |
жпти для улучшения лабораторных экспериментов. | |
2010 | |
01:27:34,909 --> 01:27:39,909 | |
Но новость забавная. | |
2011 | |
01:27:39,909 --> 01:27:44,909 | |
Хорошо, переходим к закону и порядку. | |
2012 | |
01:27:44,909 --> 01:27:47,909 | |
Закон и порядок. | |
2013 | |
01:27:47,909 --> 01:27:51,909 | |
Баллотирующийся на место мэра Виктор, | |
2014 | |
01:27:51,909 --> 01:27:53,909 | |
но не наш Виктор, пока что не наш. | |
2015 | |
01:27:53,909 --> 01:27:56,909 | |
Я надеюсь, никогда не наш. | |
2016 | |
01:27:56,909 --> 01:27:58,909 | |
Ну, я не знаю, ты же не планируешь в политику, | |
2017 | |
01:27:58,909 --> 01:27:59,909 | |
нафиг это все, да? | |
2018 | |
01:27:59,909 --> 01:28:00,909 | |
В смысле, нафиг это болото? | |
2019 | |
01:28:00,909 --> 01:28:02,909 | |
Нет, не собирался. | |
2020 | |
01:28:02,909 --> 01:28:03,909 | |
Важно иметь гражданскую позицию, | |
2021 | |
01:28:03,909 --> 01:28:04,909 | |
но в политику можно не идти. | |
2022 | |
01:28:04,909 --> 01:28:08,909 | |
Так вот, баллотирующийся на место мэра | |
2023 | |
01:28:08,909 --> 01:28:11,909 | |
одного из штатов США Виктор Миллер, | |
2024 | |
01:28:11,909 --> 01:28:15,909 | |
очень американская фамилия, | |
2025 | |
01:28:15,909 --> 01:28:17,909 | |
короче, в рамках предвыборной кампании | |
2026 | |
01:28:17,909 --> 01:28:21,909 | |
заявил, что вместо него будет решение | |
2027 | |
01:28:21,909 --> 01:28:24,909 | |
принимать ИАИ-система, | |
2028 | |
01:28:24,909 --> 01:28:27,909 | |
чем очень хайпанул, растиражировался | |
2029 | |
01:28:27,909 --> 01:28:29,909 | |
очень большим количеством статей. | |
2030 | |
01:28:29,909 --> 01:28:32,909 | |
ИАИ-систему он это назвал нескромно, | |
2031 | |
01:28:32,909 --> 01:28:34,909 | |
очень скромно, ВИК. | |
2032 | |
01:28:34,889 --> 01:28:42,489 | |
В честь себя любимого, Virtual Integrated Citizen, построена она, по его словам, на базе GPT-4. | |
2033 | |
01:28:42,489 --> 01:28:45,289 | |
Скорее всего, GPT-с просто, чувак, слепил на скорую руку. | |
2034 | |
01:28:46,569 --> 01:28:52,569 | |
И, естественно, к нему пришли с вопросами, к нему пришли с вопросами много кто. | |
2035 | |
01:28:52,569 --> 01:28:56,009 | |
Во-первых, к нему пришел с вопросами секретарь штата Вайоминг и сказал, | |
2036 | |
01:28:56,009 --> 01:29:01,169 | |
а вы там не припухли-то совсем, у нас как бы нельзя, чтобы кандидатами были я и система. | |
2037 | |
01:29:01,889 --> 01:29:12,129 | |
На что Виктор, конечно, мог бы возразить, что я ж не я и система, вместо меня просто решение будут принимать, ну, камон, ты политик, твоя работа — решение принимать, вместо тебя ее будет я и система делать. | |
2038 | |
01:29:12,129 --> 01:29:14,369 | |
Поэтому там сейчас разбирательство. | |
2039 | |
01:29:15,129 --> 01:29:22,569 | |
Ну, а во-вторых, OpenAI как бы не сильно-то разрешает свои модели использовать для политических компаний, потому что потом OpenAI придут и по попе настучат. | |
2040 | |
01:29:23,649 --> 01:29:30,249 | |
Соответственно, тейк хороший, заявочка хорошая, но Виктора обложили по всем параметрам. | |
2041 | |
01:29:30,249 --> 01:29:42,169 | |
Пока что Виктор вроде как ничего публично не заявлял, ну, либо мы не видели, но когда вот на него это все свалилось, он сказал, что все, отстаньте от меня, я пойду попробую ламу третью прикрутить, чтобы не было никаких проблем. | |
2042 | |
01:29:43,289 --> 01:29:49,649 | |
Что вообще не говорит как-то избавиться от того, что ему секретарь штата сказал, что, чувак, ты вообще не по понятиям все делаешь. | |
2043 | |
01:29:50,649 --> 01:30:08,649 | |
Да, но при этом, понимаешь, чувак открыто заявил, что, знаете, ИИТа умнее большинства политиков, и меня в том числе, поэтому пускай он, пускай GPT и всякие мерзкие решения за меня принимает. | |
2044 | |
01:30:10,649 --> 01:30:16,649 | |
Да. Что у нас еще было в законе и порядке, Витя? Что там в Японии? | |
2045 | |
01:30:16,649 --> 01:30:20,649 | |
В законе и порядке? Блин, я думал, мы побольше поговорим про то, что... | |
2046 | |
01:30:20,649 --> 01:30:21,649 | |
Ты хочешь про Виктора поговорить? | |
2047 | |
01:30:21,649 --> 01:30:22,649 | |
...GPT может быть хорошим мэром. | |
2048 | |
01:30:22,649 --> 01:30:32,649 | |
Ой, да ну не. Ну, окей, типа, GPT может быть хорошим мэром, конечно, но не в текущем его исполнении, мне кажется, нет? | |
2049 | |
01:30:33,649 --> 01:30:36,649 | |
Почему ты так думаешь? Типа, боишься, что контекст потеряется быстро? | |
2050 | |
01:30:36,649 --> 01:30:47,649 | |
Ну, у него с целеполаганием, с ризнингом все сложно, плохо, я бы сказал. Как можно в такой системе выдавать наводку решения, связанные с человеческими жизнями? | |
2051 | |
01:30:47,649 --> 01:30:50,649 | |
Я не знаю, представите, как некоторые мэры принимают решения... | |
2052 | |
01:30:51,649 --> 01:30:55,649 | |
Не, ну это понятно, что большинство таких людей можно было бы заменить, но все равно... | |
2053 | |
01:30:56,649 --> 01:31:05,649 | |
Я уверен, что будущее за тем, что все AI-системы будут как раз-таки делаться для того, чтобы решения быстро применять. | |
2054 | |
01:31:05,649 --> 01:31:15,649 | |
И там гонка США и Китая, она скорее не в том, чтобы сделать как можно более крутой AI, а чтобы сделать системы, которые будут быстро принимать решения, быстрее людей. | |
2055 | |
01:31:16,649 --> 01:31:34,649 | |
Но, блин, не знаю, я работаю с GPT каждый день, мне кажется, что даже если эти системы могут уже применять решения, то нужны очень хорошие руки, некривые, у тех людей, которые настроят эти системы, чтобы они принимали хоть какие-то решения. | |
2056 | |
01:31:34,649 --> 01:31:40,649 | |
Все равно эти решения надо супервазить. Вот как-то так у меня в голове сложилось. | |
2057 | |
01:31:40,649 --> 01:31:44,649 | |
Это да, это да. Блин, ну это просто была бы такая, не знаю... | |
2058 | |
01:31:44,649 --> 01:31:50,649 | |
Тогда если бы он стал мэром и начал бы это использовать, у нас тогда была бы плюс одна новость для этики. | |
2059 | |
01:31:51,649 --> 01:32:02,649 | |
А в чем этика-то? Этично ли, чтобы AI-системы принимали решения, но если они человеком контролируются в конечном итоге, то какая тут этика? Человек все равно одобряет. | |
2060 | |
01:32:03,649 --> 01:32:09,649 | |
Ну а прикинь, GPT ему что-нибудь суперстранное насоветовал, все равно это применял. | |
2061 | |
01:32:09,649 --> 01:32:16,649 | |
Ну тогда судить будем человека, который не разобрался и решил, что все это правильно. | |
2062 | |
01:32:17,649 --> 01:32:22,649 | |
Или ты надеешься, что будут системы, которые будут сами все принимать без людей, все решения? | |
2063 | |
01:32:23,649 --> 01:32:32,649 | |
Я надеюсь, что когда-нибудь будет такой эксперимент в какой-нибудь маленькой деревушке, где городским старостой изберут и агента без человека. | |
2064 | |
01:32:33,649 --> 01:32:40,649 | |
Ты же понимаешь, что мы тогда становимся подопытными кроликами в руках ИАЭ. Не сильно бы хотелось. | |
2065 | |
01:32:41,649 --> 01:32:45,649 | |
Ну тогда не в своей деревне, а в чужой деревне. | |
2066 | |
01:32:46,649 --> 01:32:54,649 | |
Лучше всего в ИАЭ-деревне. ИИ становится городским старостой в социуме среди других ИИ. | |
2067 | |
01:32:55,649 --> 01:33:01,649 | |
И тут мы уже приходим к гражданским правам ИАЭ, к тому, как может существовать с двумя сообществами. | |
2068 | |
01:33:02,649 --> 01:33:12,649 | |
Просто сейчас мы управляем ИАЭ. И ИАЭ вроде как пофиг, потому что у него нет там ряда характеристик, которые бы дали ему возможность быть не пофиг. | |
2069 | |
01:33:13,649 --> 01:33:14,649 | |
Когда у него появятся такие элементы... | |
2070 | |
01:33:15,649 --> 01:33:22,649 | |
Будет ли это ИАЭ-деревня, ИАЭ-пацаны, которые будут драться с ИАЭ-пацанами из соседней деревни, как думаешь? | |
2071 | |
01:33:22,649 --> 01:33:33,649 | |
Конечно, бойс. Такие орки. Оркоподобные роботы. Знаешь, такими этими латами, такими брутальными, неотёсанными. | |
2072 | |
01:33:34,649 --> 01:33:42,649 | |
Типа со штыками железными, торчащими во все стороны. Типа как из безумного Макса. Безумного Маска. | |
2073 | |
01:33:43,649 --> 01:33:44,649 | |
Безумный Маск. | |
2074 | |
01:33:44,649 --> 01:33:47,649 | |
Безумный Маск. Новая часть так будет называться. | |
2075 | |
01:33:48,649 --> 01:33:56,649 | |
Ну окей. Ладно, Алексей, нет у вас сегодня желания фатализировать ИАЭ-новости? Я вас услышал. | |
2076 | |
01:33:57,649 --> 01:33:58,649 | |
Ну чего, подожди, у нас ещё есть рубрика Этика. | |
2077 | |
01:33:59,649 --> 01:34:05,649 | |
Давай попробуем раскачать тебя следующей новостью. | |
2078 | |
01:34:06,649 --> 01:34:11,649 | |
Минобороны Японии опубликовала политику по использованию искусственного интеллекта в военных целях, | |
2079 | |
01:34:12,649 --> 01:34:24,649 | |
которая включает в себя политику по обнаружению цели с помощью ИАЭ, сбору разведданных и управление беспилотными системами с помощью ИАЭ. | |
2080 | |
01:34:24,649 --> 01:34:36,649 | |
Конечно, там прям подчеркнуто, что вообще-то человек всё равно будет принимать финальные решения, у них не будет каких-то автономных систем с ИАЭ, | |
2081 | |
01:34:37,649 --> 01:34:42,649 | |
то есть не будет ракеты, которая сама принимает полностью от начала до конца решение, где ей взорваться. | |
2082 | |
01:34:43,649 --> 01:34:49,649 | |
Но тем не менее, тем не менее, Япония отмечает, что вообще-то уже надо было давно это сделать, | |
2083 | |
01:34:49,649 --> 01:34:55,649 | |
потому что есть как бы США и Китай, которые сейчас занимаются тем же самым. | |
2084 | |
01:34:57,649 --> 01:35:02,649 | |
Ну, мне кажется, это вот, кстати, созвучная новость предыдущей, потому что это тоже про принятие решений. | |
2085 | |
01:35:03,649 --> 01:35:06,649 | |
Тут уже конкретно на весах стоит человеческая жизнь. | |
2086 | |
01:35:09,649 --> 01:35:15,649 | |
Ну, конкретно жизнь условного врага, что, наверное, по меркам вояк немножко другое. | |
2087 | |
01:35:16,649 --> 01:35:21,649 | |
Есть такое. На весах. Прикольно, да? | |
2088 | |
01:35:22,649 --> 01:35:33,649 | |
Не знаю. Я ещё раз напомню, что меня жутко эти новости раньше пугали, когда вояки так открыто рассказывали про свои разработки. | |
2089 | |
01:35:34,649 --> 01:35:43,649 | |
Сейчас я думаю, что в принципе хорошо, что рассказывают, но, учитывая, что это военные, наверное, надо умножать это всё x10, и вот там где-то будет реальность. | |
2090 | |
01:35:44,649 --> 01:35:51,649 | |
То есть, если они говорят, что они будут разрабатывать системы, которые там беспилотными системами управляют, | |
2091 | |
01:35:52,649 --> 01:35:57,649 | |
то, скорее всего, у них эти системы уже есть, уже натренированы, и, возможно, даже иногда они сами принимают решения. | |
2092 | |
01:36:00,649 --> 01:36:05,649 | |
То есть, если говорят, что они точно не будут принимать решения, то, скорее всего, будут. | |
2093 | |
01:36:06,649 --> 01:36:10,649 | |
Уже. Ну, опять, это всё про скорость реакции. | |
2094 | |
01:36:10,649 --> 01:36:18,649 | |
То есть, это не про то, что вояки такие прошаренные хотят использовать технологию первыми, потому что технология суперкрутая. | |
2095 | |
01:36:19,649 --> 01:36:28,649 | |
Камон, ТЛМки — это нейросети, которые, ну, пока что достаточно на низком уровне интеллигенс-развития. | |
2096 | |
01:36:29,649 --> 01:36:31,649 | |
Интеллигенс, с точки зрения английского языка. | |
2097 | |
01:36:32,649 --> 01:36:40,649 | |
И там не надо ждать каких-то суперкрутых фич, которые вот именно вояки увидели в этих системах, смогли внедрить, а сообщество опенсорственно не увидело. | |
2098 | |
01:36:41,649 --> 01:36:45,649 | |
То есть, у них такие же инструменты, наверное, как и у нас. Хотелось бы верить. | |
2099 | |
01:36:46,649 --> 01:36:50,649 | |
Если исходить из теории, что у них такие же инструменты, как и у нас, как и у сообщества, | |
2100 | |
01:36:51,649 --> 01:36:56,649 | |
то единственная причина применять эти системы — это исключительно либо скорость принятия решений, | |
2101 | |
01:36:56,649 --> 01:37:03,649 | |
потому что человек где-то недосмотрел, где-то не увидел, где-то мораль попытался включить и не успел сделать вовремя решение, | |
2102 | |
01:37:04,649 --> 01:37:09,649 | |
либо, как тут, кстати, в статье написано, это увеличение масштабов и объемов. | |
2103 | |
01:37:10,649 --> 01:37:14,649 | |
Словно один оператор управляет одним дроном, а один оператор вместе с ИАЕМ управляет стаей дронов. | |
2104 | |
01:37:15,649 --> 01:37:20,649 | |
Соответственно, меньше операторов надо, а у них есть конкретные проблемы с наймом в армию. | |
2105 | |
01:37:21,649 --> 01:37:24,649 | |
Вот, две проблемы — скорость решения и масштабирование. | |
2106 | |
01:37:25,649 --> 01:37:28,649 | |
Вот это они пытаются решать, это у них, видимо, получается. | |
2107 | |
01:37:32,649 --> 01:37:34,649 | |
С третьей стороны, а где Япония это всё тестирует? | |
2108 | |
01:37:35,649 --> 01:37:40,649 | |
Вот они, типа, беспилотные системы делают, анализ-развед данных, обнаружение цели. | |
2109 | |
01:37:41,649 --> 01:37:42,649 | |
Но Япония, вроде, активно нигде не воюет. | |
2110 | |
01:37:43,649 --> 01:37:44,649 | |
У меня вот это тоже немножко смутило. | |
2111 | |
01:37:45,649 --> 01:37:48,649 | |
Ну, надеюсь, в каких-нибудь полигонах, там, я не знаю, типа того. | |
2112 | |
01:37:49,649 --> 01:37:50,649 | |
Ну, а чтобы что? | |
2113 | |
01:37:51,649 --> 01:37:54,649 | |
То есть явно же есть намек на то, что они это хотят где-то использовать. | |
2114 | |
01:37:55,649 --> 01:37:58,649 | |
У меня вопросов бы не было, если бы они, я, внедряли в систему обороны. | |
2115 | |
01:37:59,649 --> 01:38:00,649 | |
Как бы страны строят обороны, понятно. | |
2116 | |
01:38:01,649 --> 01:38:02,649 | |
А тут... | |
2117 | |
01:38:03,649 --> 01:38:06,649 | |
Ну, опять, гонка вооружений, чтобы показать миру, что мы можем. | |
2118 | |
01:38:07,649 --> 01:38:08,649 | |
И вы тоже, давайте, двигайтесь. | |
2119 | |
01:38:09,649 --> 01:38:10,649 | |
Не знаю. Не знаю. | |
2120 | |
01:38:11,649 --> 01:38:12,649 | |
Меня эта военная тема удручает, короче. | |
2121 | |
01:38:12,649 --> 01:38:13,649 | |
Угу. | |
2122 | |
01:38:15,649 --> 01:38:19,649 | |
Ну, да. Да, это большой вопрос, где будет использоваться. | |
2123 | |
01:38:20,649 --> 01:38:21,649 | |
Дроны-сталкеры. | |
2124 | |
01:38:27,649 --> 01:38:28,649 | |
Всё по-тараковскому, да. | |
2125 | |
01:38:29,649 --> 01:38:30,649 | |
Всё по-тараковскому. | |
2126 | |
01:38:31,649 --> 01:38:36,649 | |
Ладно. Какие-то у нас сегодня законы порядок на грани этики, я так скажу. | |
2127 | |
01:38:37,649 --> 01:38:40,649 | |
Да, да, да. Да и наука и техника тоже. | |
2128 | |
01:38:40,649 --> 01:38:41,649 | |
Ну, есть такое. | |
2129 | |
01:38:42,649 --> 01:38:43,649 | |
Давай, наверное, к сервисам и ссылкам. | |
2130 | |
01:38:45,649 --> 01:38:46,649 | |
Давай, давай. | |
2131 | |
01:38:47,649 --> 01:38:48,649 | |
У нас их много. | |
2132 | |
01:38:49,649 --> 01:38:50,649 | |
Сегодня рубрика особенно большая. | |
2133 | |
01:38:51,649 --> 01:38:54,649 | |
А ты хочешь рассказать про тот инструмент, про который мы с тобой общались или не сегодня? | |
2134 | |
01:38:57,649 --> 01:38:58,649 | |
А про какой инструмент мы общались? | |
2135 | |
01:38:59,649 --> 01:39:02,649 | |
А вот давай мы вспомним, не называя его, потому что вдруг мы не будем по нему рассказывать. | |
2136 | |
01:39:03,649 --> 01:39:05,649 | |
Который ни ты, ни я не потестировали два дня назад. | |
2137 | |
01:39:06,649 --> 01:39:07,649 | |
Который ты переносил. | |
2138 | |
01:39:08,649 --> 01:39:09,649 | |
А-а-а. | |
2139 | |
01:39:10,649 --> 01:39:11,649 | |
Не-не-не, тогда не надо. | |
2140 | |
01:39:12,649 --> 01:39:13,649 | |
Не будем сегодня, ну окей. | |
2141 | |
01:39:14,649 --> 01:39:15,649 | |
Ну тогда действительно, у нас сервисы и ссылки сегодня быстрые. | |
2142 | |
01:39:16,649 --> 01:39:21,649 | |
Вообще мы на протяжении выпуска много про модельки рассказывали, про разные сервисы, так что используйте. | |
2143 | |
01:39:22,649 --> 01:39:24,649 | |
В сервисах и ссылках я, наверное, хочу рассказать про один сервис. | |
2144 | |
01:39:25,649 --> 01:39:32,649 | |
Спасибо, кстати, Паше Судакову, нашему техническому мастеру в нашей команде, товарищу. | |
2145 | |
01:39:33,649 --> 01:39:36,649 | |
Короче, мы когда в Турцию летали, у меня была очень сложная задача. | |
2146 | |
01:39:36,649 --> 01:39:41,649 | |
Мне надо было записать спонсорский выпуск для своих спонсоров, патреонов, эти бороды. | |
2147 | |
01:39:42,649 --> 01:39:44,649 | |
При этом у меня была только одна камера. | |
2148 | |
01:39:45,649 --> 01:39:48,649 | |
Я был в аэропорту, у меня была ручная камера, DJI Osmo 3 и телефон. | |
2149 | |
01:39:49,649 --> 01:39:50,649 | |
То есть компания была. | |
2150 | |
01:39:51,649 --> 01:39:54,649 | |
Соответственно видос я снял на камеру, залил на телефон, это все быстро делается. | |
2151 | |
01:39:55,649 --> 01:39:58,649 | |
И мне надо было из телефона сделать одну простую вещь. | |
2152 | |
01:39:59,649 --> 01:40:02,649 | |
Почистить звук, потому что я в аэропорту записывался, там было много шума. | |
2153 | |
01:40:02,649 --> 01:40:07,649 | |
На фоне разговаривали эти громкоговорители, когда объявляли рейсы. | |
2154 | |
01:40:08,649 --> 01:40:12,649 | |
И надо было, собственно, подклеить это аудио к видео и залить на YouTube. | |
2155 | |
01:40:13,649 --> 01:40:15,649 | |
Так вот, подклеить аудио к видео — это достаточно простая задача. | |
2156 | |
01:40:16,649 --> 01:40:17,649 | |
Сейчас куча приложений для этого существует. | |
2157 | |
01:40:18,649 --> 01:40:19,649 | |
И рендерит, и оно все очень быстро. | |
2158 | |
01:40:20,649 --> 01:40:22,649 | |
Вот почистить аудио без компа... | |
2159 | |
01:40:23,649 --> 01:40:25,649 | |
Ну, я чищу аудио обычно в специализированных приложениях, | |
2160 | |
01:40:26,649 --> 01:40:29,649 | |
типа Adobe Audition — сложное десктопное приложение. | |
2161 | |
01:40:29,649 --> 01:40:31,649 | |
У меня его, естественно, нет на телефоне. | |
2162 | |
01:40:32,649 --> 01:40:33,649 | |
Enhanced Speech — адобовский. | |
2163 | |
01:40:34,649 --> 01:40:35,649 | |
Во-первых, он сейчас под подпиской платный, | |
2164 | |
01:40:36,649 --> 01:40:38,649 | |
это веб-сервис, который можно загрузить аудио. | |
2165 | |
01:40:39,649 --> 01:40:45,649 | |
Во-вторых, там ограничения, по-моему, в час на каком-то базовом уровне подписки. | |
2166 | |
01:40:46,649 --> 01:40:47,649 | |
Вот я не помню, он есть еще или нет. | |
2167 | |
01:40:48,649 --> 01:40:50,649 | |
Ну, короче, надо злогиниться, надо вспомнить. | |
2168 | |
01:40:51,649 --> 01:40:52,649 | |
Там есть ограничения, у меня файл аудио... | |
2169 | |
01:40:53,649 --> 01:40:57,649 | |
Я записал видос на 2 часа, у меня файл был двухчасовой, чуть-чуть меньше. | |
2170 | |
01:40:58,649 --> 01:41:02,649 | |
В-третьих, Adobe Enhance, мы помним, он добавляет к русскому языку английский акцент до сих пор. | |
2171 | |
01:41:03,649 --> 01:41:05,649 | |
Ну и, в общем-то, в аэропорту я был с Пашей. | |
2172 | |
01:41:06,649 --> 01:41:09,649 | |
Мы с Пашей вот в аэропорту встретились, мы вместе летели в Турцию, | |
2173 | |
01:41:10,649 --> 01:41:11,649 | |
там уже с Витьком встретились, с Артурчиком. | |
2174 | |
01:41:12,649 --> 01:41:13,649 | |
И, короче, Паша говорит, | |
2175 | |
01:41:14,649 --> 01:41:18,649 | |
«Слушай, так это, я уже давно использую сервис, называется AUPHONIC. | |
2176 | |
01:41:19,649 --> 01:41:22,649 | |
Я ссылку в описании оставлю. | |
2177 | |
01:41:27,649 --> 01:41:30,649 | |
Он говорит, зарегайся там, там бесплатный аккаунт, | |
2178 | |
01:41:31,649 --> 01:41:34,649 | |
который позволяет на 2 часа тестовое аудио прогнать. | |
2179 | |
01:41:35,649 --> 01:41:36,649 | |
Если понравится, можешь подписку купить. | |
2180 | |
01:41:37,649 --> 01:41:40,649 | |
Я прям зашел там, у нас до вылета полчаса оставалось буквально. | |
2181 | |
01:41:41,649 --> 01:41:43,649 | |
Я думал, что не успею, с обычного интернета зашел к ним на сервис, | |
2182 | |
01:41:44,649 --> 01:41:46,649 | |
быстренько через Google злогинился, закинул дорожку, | |
2183 | |
01:41:46,649 --> 01:41:47,649 | |
вообще ничего не настраивал. | |
2184 | |
01:41:48,649 --> 01:41:51,649 | |
Нажал процессинг, и через минут буквально 7 | |
2185 | |
01:41:52,649 --> 01:41:53,649 | |
мне выдало просто шикарнейший результат. | |
2186 | |
01:41:54,649 --> 01:41:56,649 | |
Оно настолько шикарно убрало все фоновые шумы, | |
2187 | |
01:41:57,649 --> 01:41:59,649 | |
причем оно убрало абсолютно полностью под ноль. | |
2188 | |
01:42:00,649 --> 01:42:01,649 | |
Это слегка неестественно даже звучало местами, | |
2189 | |
01:42:02,649 --> 01:42:03,649 | |
но мне, в принципе, хватило для выпуска, | |
2190 | |
01:42:04,649 --> 01:42:05,649 | |
и я уверен, что там в настройках можно было бы подкрутить. | |
2191 | |
01:42:06,649 --> 01:42:07,649 | |
Но я удивился. | |
2192 | |
01:42:08,649 --> 01:42:10,649 | |
Никакого английского акцента, чистейшая моя речь, | |
2193 | |
01:42:11,649 --> 01:42:13,649 | |
без всяких артефактов, без всяких выпаданий, | |
2194 | |
01:42:13,649 --> 01:42:16,649 | |
без всяких там вздохов, охов, прихлопов, прискоков, | |
2195 | |
01:42:17,649 --> 01:42:18,649 | |
без ничего, очень круто обработало. | |
2196 | |
01:42:19,649 --> 01:42:21,649 | |
Все по бесплатной подписке, вот, | |
2197 | |
01:42:22,649 --> 01:42:23,649 | |
час пятьдесят мне это обработалось, | |
2198 | |
01:42:24,649 --> 01:42:25,649 | |
я все спокойно подклеил. | |
2199 | |
01:42:26,649 --> 01:42:27,649 | |
Даже с шумами аэропорта справилась. | |
2200 | |
01:42:28,649 --> 01:42:29,649 | |
Да, даже диктор, когда что-то там на фоне говорил, | |
2201 | |
01:42:30,649 --> 01:42:31,649 | |
оно даже это откинуло. | |
2202 | |
01:42:32,649 --> 01:42:33,649 | |
Я очень удивился. | |
2203 | |
01:42:34,649 --> 01:42:35,649 | |
Блин, нифига себе. | |
2204 | |
01:42:36,649 --> 01:42:38,649 | |
Так что, если вам нужен сервис для качественной чистки голоса, | |
2205 | |
01:42:39,649 --> 01:42:42,649 | |
типа Eleven Labs'овского Voice Isolator, | |
2206 | |
01:42:43,649 --> 01:42:44,649 | |
о котором есть бесплатная подписка, | |
2207 | |
01:42:45,649 --> 01:42:46,649 | |
точнее, бесплатный пробный режим, хороший, | |
2208 | |
01:42:47,649 --> 01:42:48,649 | |
попробуйте, | |
2209 | |
01:42:49,649 --> 01:42:51,649 | |
auponic.com, я даже прямо сейчас в чат ссылку скину. | |
2210 | |
01:42:52,649 --> 01:42:54,649 | |
А, ну, Валера уже скинул, да, это именно он. | |
2211 | |
01:42:55,649 --> 01:42:56,649 | |
Ну и спасибо еще раз Паше за совет классный. | |
2212 | |
01:42:57,649 --> 01:42:59,649 | |
Собственно, все, на этом сервисе сегодня все. | |
2213 | |
01:43:01,649 --> 01:43:02,649 | |
Всего один. | |
2214 | |
01:43:03,649 --> 01:43:04,649 | |
Всего один, но зато какой. | |
2215 | |
01:43:05,649 --> 01:43:06,649 | |
Какой? | |
2216 | |
01:43:07,649 --> 01:43:08,649 | |
Да, один, но очень хороший. | |
2217 | |
01:43:09,649 --> 01:43:10,649 | |
Этик конфетиком. | |
2218 | |
01:43:11,649 --> 01:43:12,649 | |
Да, остается этик конфетиком. | |
2219 | |
01:43:13,649 --> 01:43:16,649 | |
Ты скажи нам про пузырь, а я расскажу про завод. | |
2220 | |
01:43:17,649 --> 01:43:18,649 | |
Давай. | |
2221 | |
01:43:19,649 --> 01:43:20,649 | |
Пузырь, смотри. | |
2222 | |
01:43:21,649 --> 01:43:23,649 | |
Идеальная форма 3D-объекта — это шар, да? | |
2223 | |
01:43:24,649 --> 01:43:25,649 | |
А пузырь — это шар. | |
2224 | |
01:43:26,649 --> 01:43:27,649 | |
Получается, пузырь — это идеальная штука, да? | |
2225 | |
01:43:28,649 --> 01:43:29,649 | |
Так. | |
2226 | |
01:43:30,649 --> 01:43:31,649 | |
Ну, собственно, как это к этике подвязать? | |
2227 | |
01:43:32,649 --> 01:43:34,649 | |
Вот я тоже не знаю, поэтому давай я прочитаю новость все-таки. | |
2228 | |
01:43:35,649 --> 01:43:36,649 | |
Давай. | |
2229 | |
01:43:37,649 --> 01:43:38,649 | |
Тут статью нам скидывали в чат, | |
2230 | |
01:43:39,649 --> 01:43:41,649 | |
и она, в принципе, достаточно | |
2231 | |
01:43:43,649 --> 01:43:47,649 | |
разлетелась по интернету. | |
2232 | |
01:43:48,649 --> 01:43:49,649 | |
Статья называется | |
2233 | |
01:43:50,649 --> 01:43:55,649 | |
«AI's 600 billion question», | |
2234 | |
01:43:56,649 --> 01:44:00,649 | |
что переводится как «Вопрос на 600 миллиардов долларов» по факту. | |
2235 | |
01:44:01,649 --> 01:44:02,649 | |
Фишка в чем? | |
2236 | |
01:44:03,649 --> 01:44:04,649 | |
Компания Sequoia Capital, | |
2237 | |
01:44:05,649 --> 01:44:06,649 | |
это большая инвест-компания, | |
2238 | |
01:44:07,649 --> 01:44:09,649 | |
пыталась посчитать, сколько ресурсов | |
2239 | |
01:44:10,649 --> 01:44:11,649 | |
тратит дата-центр на то, | |
2240 | |
01:44:11,649 --> 01:44:12,649 | |
чтобы запускать все свои видеокарты, | |
2241 | |
01:44:13,649 --> 01:44:14,649 | |
на которых запускаются AIs. | |
2242 | |
01:44:15,649 --> 01:44:16,649 | |
Я пытаюсь это вкратце буквально объяснить. | |
2243 | |
01:44:17,649 --> 01:44:19,649 | |
Они прикинули, сколько на это денег уходит, | |
2244 | |
01:44:20,649 --> 01:44:21,649 | |
они прикинули примерно, | |
2245 | |
01:44:22,649 --> 01:44:24,649 | |
сколько из этих всех мощностей окупаются, | |
2246 | |
01:44:25,649 --> 01:44:29,649 | |
и вывели статистику за последние несколько кварталов. | |
2247 | |
01:44:30,649 --> 01:44:32,649 | |
Я, кстати, в сценарии полную картинку без кварталов выкинул. | |
2248 | |
01:44:33,649 --> 01:44:35,649 | |
Они сделали статистику по вот этой разнице | |
2249 | |
01:44:36,649 --> 01:44:37,649 | |
стоимости оборудования | |
2250 | |
01:44:38,649 --> 01:44:40,649 | |
со стоимостью, которое выплачивается компаниями, | |
2251 | |
01:44:41,649 --> 01:44:42,649 | |
которые его используют. | |
2252 | |
01:44:43,649 --> 01:44:46,649 | |
Сделали на квартал 4-23 года | |
2253 | |
01:44:47,649 --> 01:44:48,649 | |
Estimated Actual, | |
2254 | |
01:44:49,649 --> 01:44:51,649 | |
и на первый квартал 24 года Estimated Actual. | |
2255 | |
01:44:52,649 --> 01:44:53,649 | |
И получились забавные цифры. | |
2256 | |
01:44:54,649 --> 01:44:56,649 | |
Получилось, что там все очень плохо. | |
2257 | |
01:44:57,649 --> 01:44:59,649 | |
Что, во-первых, оборудование не окупается, | |
2258 | |
01:45:00,649 --> 01:45:02,649 | |
и на сентябрь 2023 года | |
2259 | |
01:45:03,649 --> 01:45:05,649 | |
вот этот разрыв был в 150 миллиардов долларов, | |
2260 | |
01:45:06,649 --> 01:45:08,649 | |
между тем, сколько стоит оборудование и разницей, | |
2261 | |
01:45:08,649 --> 01:45:11,649 | |
и сколько платят за это оборудование. | |
2262 | |
01:45:12,649 --> 01:45:17,649 | |
А, получается, к теперешнему моменту, | |
2263 | |
01:45:18,649 --> 01:45:19,649 | |
то есть, по факту, почти через год, | |
2264 | |
01:45:20,649 --> 01:45:21,649 | |
этот разрыв увеличился аж в 4 раза. | |
2265 | |
01:45:22,649 --> 01:45:24,649 | |
Достиг 600, там, 500-600 миллиардов долларов. | |
2266 | |
01:45:25,649 --> 01:45:26,649 | |
И из этого они делают вывод, | |
2267 | |
01:45:27,649 --> 01:45:30,649 | |
что как бы яйный бум вот этих всех производства чипов | |
2268 | |
01:45:31,649 --> 01:45:33,649 | |
и запуска все больших и больших LM приводит нас к пузырю, | |
2269 | |
01:45:34,649 --> 01:45:35,649 | |
которая все больше раздувается. | |
2270 | |
01:45:35,649 --> 01:45:38,649 | |
Потому что все больше оборудование дорогостоящего используется, | |
2271 | |
01:45:39,649 --> 01:45:40,649 | |
а окупается оно все меньше и меньше. | |
2272 | |
01:45:41,649 --> 01:45:42,649 | |
Тупо сервис не покупается людьми, | |
2273 | |
01:45:43,649 --> 01:45:45,649 | |
то есть не успевает сервис за оборудованием. | |
2274 | |
01:45:46,649 --> 01:45:48,649 | |
Соответственно, там есть несколько мыслей, | |
2275 | |
01:45:49,649 --> 01:45:50,649 | |
что когда-то это все прекратится, | |
2276 | |
01:45:51,649 --> 01:45:53,649 | |
производители поймут, что они вообще в долговой яме, | |
2277 | |
01:45:54,649 --> 01:45:57,649 | |
и что там будет, ну, фиг его знает, что будет. | |
2278 | |
01:45:58,649 --> 01:46:00,649 | |
Может случиться и как в 2008 году бум.com был, | |
2279 | |
01:46:01,649 --> 01:46:02,649 | |
может случиться что-то другое, | |
2280 | |
01:46:03,649 --> 01:46:04,649 | |
а может быть все пульнет еще, кто знает. | |
2281 | |
01:46:05,649 --> 01:46:07,649 | |
В целом, ребята из Sequoia подняли достаточно такой прагматичный вопрос, | |
2282 | |
01:46:08,649 --> 01:46:09,649 | |
а как так, что делать. | |
2283 | |
01:46:10,649 --> 01:46:11,649 | |
И вот в начале выпуска я, помнишь, говорил, | |
2284 | |
01:46:12,649 --> 01:46:13,649 | |
что Stability AI как раз таки делают все хорошо, | |
2285 | |
01:46:14,649 --> 01:46:15,649 | |
потому что они пытаются денег заработать, | |
2286 | |
01:46:16,649 --> 01:46:17,649 | |
а на фоне OpenAI, | |
2287 | |
01:46:18,869 --> 01:46:21,869 | |
Но с этой точки зрения OpenAI это самый крупный игрок, | |
2288 | |
01:46:21,869 --> 01:46:24,869 | |
по факту OpenAI вносит самый большой вклад в этот пузырь, | |
2289 | |
01:46:24,869 --> 01:46:27,869 | |
потому что они дофигища мощностей используют, | |
2290 | |
01:46:27,869 --> 01:46:29,869 | |
да, окупают очень мало. | |
2291 | |
01:46:30,869 --> 01:46:33,869 | |
Ну и вот, такая слегка паникерская новость | |
2292 | |
01:46:33,869 --> 01:46:36,869 | |
о том, что этот пузырь может лопнуть в какой-то момент. | |
2293 | |
01:46:36,869 --> 01:46:38,869 | |
Вот что ты думаешь по этому поводу? | |
2294 | |
01:46:41,869 --> 01:46:44,869 | |
Не знаю, мне кажется, что слишком большие ставки на EA | |
2295 | |
01:46:44,869 --> 01:46:48,869 | |
в последнее время ставятся и не только на уровне бизнеса, | |
2296 | |
01:46:48,869 --> 01:46:53,869 | |
но и на уровне супер крупных компаний и даже государств, | |
2297 | |
01:46:54,869 --> 01:46:58,869 | |
как мы с каждым выпуском выясняем, поэтому не знаю. | |
2298 | |
01:46:59,869 --> 01:47:01,869 | |
Даже если оно сейчас с экономической точки зрения | |
2299 | |
01:47:01,869 --> 01:47:03,869 | |
выглядит как пузырь, это не значит, | |
2300 | |
01:47:03,869 --> 01:47:05,869 | |
что туда не продолжат вливать бабло, | |
2301 | |
01:47:06,869 --> 01:47:08,869 | |
потому что преимущества при использовании EA | |
2302 | |
01:47:08,869 --> 01:47:10,869 | |
они очевидны сейчас. | |
2303 | |
01:47:10,869 --> 01:47:15,869 | |
EA реально может заменять некоторых людей уже сегодня. | |
2304 | |
01:47:15,869 --> 01:47:17,869 | |
Ну, видишь, преимущества — это хорошо, | |
2305 | |
01:47:17,869 --> 01:47:20,869 | |
но, насколько я понимаю, многие производители оборудования | |
2306 | |
01:47:20,869 --> 01:47:22,869 | |
для дата-центров в том числе, да та же NVIDIA, | |
2307 | |
01:47:22,869 --> 01:47:24,869 | |
наверняка сидят закредитованы. | |
2308 | |
01:47:24,869 --> 01:47:26,869 | |
Ну, это же обычно так работает. | |
2309 | |
01:47:26,869 --> 01:47:28,869 | |
Типа они берут кредиты в крупных банках | |
2310 | |
01:47:28,869 --> 01:47:30,869 | |
и делают там производство. | |
2311 | |
01:47:30,869 --> 01:47:33,869 | |
И когда банки поймут, что эти кредиты вообще не окупаются, | |
2312 | |
01:47:34,869 --> 01:47:37,869 | |
ну, а банки же такие штуки, которые, ну, | |
2313 | |
01:47:37,869 --> 01:47:40,869 | |
я и хайпом, я и хайпом, а нам как бы деньги надо сберечь. | |
2314 | |
01:47:40,869 --> 01:47:42,869 | |
Мы не хотим банкротиться. | |
2315 | |
01:47:42,869 --> 01:47:45,869 | |
Когда банки начнут один за одним отказывать в кредитах, | |
2316 | |
01:47:45,869 --> 01:47:47,869 | |
а потом еще требовать возвращения этих кредитов, | |
2317 | |
01:47:47,869 --> 01:47:49,869 | |
то можно увидеть очень интересные картины. | |
2318 | |
01:47:49,869 --> 01:47:51,869 | |
Можно увидеть слопывание банков. | |
2319 | |
01:47:51,869 --> 01:47:53,869 | |
Слопывание компании. | |
2320 | |
01:47:53,869 --> 01:47:54,869 | |
Слопывание компании. | |
2321 | |
01:47:54,869 --> 01:47:56,869 | |
Для того, чтобы банки начали отказывать в кредитах, | |
2322 | |
01:47:56,869 --> 01:47:59,869 | |
надо, чтобы по эти кредиты компания та же NVIDIA | |
2323 | |
01:47:59,869 --> 01:48:00,869 | |
перестала выплачивать. | |
2324 | |
01:48:00,869 --> 01:48:02,869 | |
Такого пока что нет. | |
2325 | |
01:48:03,869 --> 01:48:05,869 | |
И, ну, что-то я не вижу, | |
2326 | |
01:48:05,869 --> 01:48:07,869 | |
исходя из этой новости, что это предвидится. | |
2327 | |
01:48:07,869 --> 01:48:10,869 | |
Что NVIDIA вдруг не сможет платить по счетам. | |
2328 | |
01:48:10,869 --> 01:48:14,869 | |
Возможно, акции NVIDIA долбанутся немножечко, | |
2329 | |
01:48:14,869 --> 01:48:16,869 | |
потому что они сейчас какие-то, ну, очень дорогие. | |
2330 | |
01:48:16,869 --> 01:48:17,869 | |
Ну, мы же знаем, что бывает, | |
2331 | |
01:48:17,869 --> 01:48:19,869 | |
когда акции компании долбаются. | |
2332 | |
01:48:19,869 --> 01:48:21,869 | |
Компания уходит в жесткие сокращения. | |
2333 | |
01:48:21,869 --> 01:48:22,869 | |
В жесточайшие. | |
2334 | |
01:48:23,869 --> 01:48:24,869 | |
Ну да, это тоже. | |
2335 | |
01:48:24,869 --> 01:48:26,869 | |
И, например, компания NVIDIA скажет, | |
2336 | |
01:48:27,869 --> 01:48:29,869 | |
нафиг все новые закупки, все. | |
2337 | |
01:48:29,869 --> 01:48:31,869 | |
Маск, спасибо, до свидания. | |
2338 | |
01:48:31,869 --> 01:48:32,869 | |
OpenAI, спасибо, до свидания. | |
2339 | |
01:48:32,869 --> 01:48:33,869 | |
Используйте то, что есть. | |
2340 | |
01:48:33,869 --> 01:48:36,869 | |
И у нас, ну, как минимум, будет застой дикий. | |
2341 | |
01:48:38,869 --> 01:48:39,869 | |
Ну, такое вот может быть. | |
2342 | |
01:48:40,869 --> 01:48:41,869 | |
Плюс, это ж карты. | |
2343 | |
01:48:41,869 --> 01:48:42,869 | |
Хитро, что NVIDIA монополист. | |
2344 | |
01:48:44,869 --> 01:48:45,869 | |
Да. | |
2345 | |
01:48:45,869 --> 01:48:49,869 | |
И смотри, они же делают сейчас, по факту, ICICI. | |
2346 | |
01:48:49,869 --> 01:48:51,869 | |
Ну, то есть специализированные карточки | |
2347 | |
01:48:51,869 --> 01:48:54,869 | |
исключительно для того, | |
2348 | |
01:48:54,869 --> 01:48:56,869 | |
чтобы обеспечивать мощность LLM, | |
2349 | |
01:48:56,869 --> 01:48:58,869 | |
обучение inference LLM. | |
2350 | |
01:48:58,869 --> 01:49:00,869 | |
То есть эти карточки, конечно, | |
2351 | |
01:49:00,869 --> 01:49:02,869 | |
их можно перенаправить в какую-нибудь гейминдустрию, | |
2352 | |
01:49:02,869 --> 01:49:04,869 | |
не знаю, куда-нибудь еще наверняка можно. | |
2353 | |
01:49:04,869 --> 01:49:05,869 | |
Они еще... | |
2354 | |
01:49:05,869 --> 01:49:08,869 | |
Кстати, из-за этого, скорее всего, | |
2355 | |
01:49:10,869 --> 01:49:12,869 | |
не сильно хотят идти в разработку | |
2356 | |
01:49:12,869 --> 01:49:14,869 | |
конкретно специализированных под LLM чипов. | |
2357 | |
01:49:14,869 --> 01:49:16,869 | |
То есть все сидят и ждут, | |
2358 | |
01:49:16,869 --> 01:49:18,869 | |
когда же вот этот вот пузырек начнет | |
2359 | |
01:49:18,869 --> 01:49:20,869 | |
хотя бы быть стабильным и не сильно расширяться. | |
2360 | |
01:49:20,869 --> 01:49:22,869 | |
Потому что если он будет дальше расширяться, | |
2361 | |
01:49:22,869 --> 01:49:24,869 | |
то делать специализированные чипы для LLM, | |
2362 | |
01:49:24,869 --> 01:49:25,869 | |
это патовая ситуация. | |
2363 | |
01:49:25,869 --> 01:49:28,869 | |
Если LLM-ки вдруг издохнут, | |
2364 | |
01:49:28,869 --> 01:49:30,869 | |
нейросети вдруг станут никому не нужны, | |
2365 | |
01:49:30,869 --> 01:49:33,869 | |
то придется это железо просто на мусорку выбрасывать. | |
2366 | |
01:49:33,869 --> 01:49:36,869 | |
Куда свое железо будет NVIDIA одевать? | |
2367 | |
01:49:36,869 --> 01:49:37,869 | |
NVIDIA одевает даже, | |
2368 | |
01:49:37,869 --> 01:49:39,869 | |
несмотря на то, что оно супершироко направлено. | |
2369 | |
01:49:39,869 --> 01:49:41,869 | |
Непонятно. Геймерам столько карточек не нужно. | |
2370 | |
01:49:41,869 --> 01:49:43,869 | |
Дата-центрам тоже. | |
2371 | |
01:49:43,869 --> 01:49:46,869 | |
Можно биткоины опять начать майнить всегда. | |
2372 | |
01:49:46,869 --> 01:49:48,869 | |
Ну, кстати, да. | |
2373 | |
01:49:48,869 --> 01:49:50,869 | |
Либо обогревать торговые центры. | |
2374 | |
01:49:53,869 --> 01:49:57,869 | |
Там были же проекты по отведению тепла из дата-центров. | |
2375 | |
01:49:57,869 --> 01:49:58,869 | |
Слушай... | |
2376 | |
01:49:58,869 --> 01:49:59,869 | |
Да, разные были проекты. | |
2377 | |
01:49:59,869 --> 01:50:01,869 | |
Но мне твоя идея про биткоины понравилась. | |
2378 | |
01:50:01,869 --> 01:50:04,869 | |
Прикинь, все это реально раздувается, | |
2379 | |
01:50:04,869 --> 01:50:05,869 | |
все больше и больше. | |
2380 | |
01:50:05,869 --> 01:50:07,869 | |
В какой-то момент компании-производители чипов | |
2381 | |
01:50:07,869 --> 01:50:10,869 | |
понимают, что они больше не тащат выплаты. | |
2382 | |
01:50:10,869 --> 01:50:11,869 | |
И они говорят до свидания | |
2383 | |
01:50:11,869 --> 01:50:14,869 | |
всем моим стартапам и компаниям новым. | |
2384 | |
01:50:14,869 --> 01:50:16,869 | |
Старым тоже очень все плохо. | |
2385 | |
01:50:16,869 --> 01:50:19,869 | |
И начинают майнить битки. | |
2386 | |
01:50:19,869 --> 01:50:21,869 | |
И NVIDIA делает какую-нибудь свою крипту, | |
2387 | |
01:50:21,869 --> 01:50:24,869 | |
которая заточена исключительно под их карточки. | |
2388 | |
01:50:24,869 --> 01:50:26,869 | |
И у нас новый криптобум. | |
2389 | |
01:50:26,869 --> 01:50:29,869 | |
Потому что куча мощностей, NVIDIA, | |
2390 | |
01:50:29,869 --> 01:50:30,869 | |
новая криптовалюта. | |
2391 | |
01:50:30,869 --> 01:50:32,869 | |
А после этого все обдумается, | |
2392 | |
01:50:32,869 --> 01:50:33,869 | |
и будет новый яйбум. | |
2393 | |
01:50:37,869 --> 01:50:39,869 | |
Ну, вообще, конечно, это денежная система. | |
2394 | |
01:50:39,869 --> 01:50:42,869 | |
Это вообще такое болото тоже. | |
2395 | |
01:50:44,869 --> 01:50:45,869 | |
Это да, это да. | |
2396 | |
01:50:45,869 --> 01:50:47,869 | |
Но видишь, как мы к этому пришли? | |
2397 | |
01:50:47,869 --> 01:50:50,869 | |
Мы начинали суперпозитивно наш подкаст | |
2398 | |
01:50:52,869 --> 01:50:53,869 | |
когда-то полтора года назад. | |
2399 | |
01:50:53,869 --> 01:50:55,869 | |
А сейчас мы уже обсуждаем | |
2400 | |
01:50:55,869 --> 01:50:56,869 | |
потенциальную возможность того, | |
2401 | |
01:50:56,869 --> 01:50:57,869 | |
что это пузырь. | |
2402 | |
01:50:57,869 --> 01:50:58,869 | |
Не, подожди, подожди. | |
2403 | |
01:50:58,869 --> 01:51:00,869 | |
Когда-то полтора года назад я говорил, | |
2404 | |
01:51:00,869 --> 01:51:01,869 | |
что у меня орел будет. | |
2405 | |
01:51:01,869 --> 01:51:03,869 | |
Сейчас я уже про орла редко вспоминаю. | |
2406 | |
01:51:03,869 --> 01:51:05,869 | |
Так что у меня наоборот, наверное. | |
2407 | |
01:51:06,869 --> 01:51:08,869 | |
Все стабильно фигово. | |
2408 | |
01:51:09,869 --> 01:51:10,869 | |
Ну окей. | |
2409 | |
01:51:11,869 --> 01:51:13,869 | |
Ну вот, вот такая новость. | |
2410 | |
01:51:13,869 --> 01:51:15,869 | |
Сложная, этическая, но на подумать. | |
2411 | |
01:51:15,869 --> 01:51:16,869 | |
На подумать о том, | |
2412 | |
01:51:16,869 --> 01:51:18,869 | |
что, может, мы реально в пузырьке живем. | |
2413 | |
01:51:19,869 --> 01:51:21,869 | |
И что с этим делать, пока непонятно. | |
2414 | |
01:51:21,869 --> 01:51:22,869 | |
Можете предложить в комментариях | |
2415 | |
01:51:22,869 --> 01:51:23,869 | |
какие-нибудь варианты. | |
2416 | |
01:51:23,869 --> 01:51:24,869 | |
С удовольствием почитаем. | |
2417 | |
01:51:24,869 --> 01:51:26,869 | |
Может, даже озвучим в следующем выпуске. | |
2418 | |
01:51:28,869 --> 01:51:29,869 | |
Окейушки. | |
2419 | |
01:51:30,869 --> 01:51:32,869 | |
А мы перейдем к последней новости | |
2420 | |
01:51:32,869 --> 01:51:34,869 | |
рубрики Этика конфеттика | |
2421 | |
01:51:34,869 --> 01:51:36,869 | |
и последней новости подкаста | |
2422 | |
01:51:36,869 --> 01:51:37,869 | |
сегодняшнего. | |
2423 | |
01:51:37,869 --> 01:51:38,869 | |
Сегодняшнего. | |
2424 | |
01:51:38,869 --> 01:51:40,869 | |
Она, да. | |
2425 | |
01:51:40,869 --> 01:51:42,869 | |
Она, кстати, тоже от большой рыбы, | |
2426 | |
01:51:42,869 --> 01:51:43,869 | |
на самом деле, | |
2427 | |
01:51:43,869 --> 01:51:45,869 | |
компании Xiaomi. | |
2428 | |
01:51:46,869 --> 01:51:48,869 | |
Генеральный директор Xiaomi | |
2429 | |
01:51:48,869 --> 01:51:49,869 | |
Лэй Цзунь. | |
2430 | |
01:51:50,869 --> 01:51:51,869 | |
Подожди, подожди, подожди. | |
2431 | |
01:51:51,869 --> 01:51:53,869 | |
Можно на секундочку я тебя остановлю? | |
2432 | |
01:51:53,869 --> 01:51:54,869 | |
Извини. | |
2433 | |
01:51:54,869 --> 01:51:55,869 | |
Потому что мне очень интересно, | |
2434 | |
01:51:55,869 --> 01:51:56,869 | |
это прям важно. | |
2435 | |
01:51:57,869 --> 01:51:59,869 | |
Если OpenAI вот такая большая рыба, | |
2436 | |
01:52:00,869 --> 01:52:02,869 | |
то по соотношению с ней | |
2437 | |
01:52:02,869 --> 01:52:03,869 | |
насколько большой Xiaomi? | |
2438 | |
01:52:03,869 --> 01:52:05,869 | |
Большой карп или карась? | |
2439 | |
01:52:06,869 --> 01:52:08,869 | |
Блин, хороший вопрос. | |
2440 | |
01:52:08,869 --> 01:52:10,869 | |
Наверное, учитывая, что мы | |
2441 | |
01:52:10,869 --> 01:52:12,869 | |
все все-таки говорим про ИИ, | |
2442 | |
01:52:12,869 --> 01:52:14,869 | |
и большие рыбы у нас, в первую очередь, | |
2443 | |
01:52:14,869 --> 01:52:16,869 | |
яишные, то я думаю, | |
2444 | |
01:52:16,869 --> 01:52:18,869 | |
что Xiaomi меньше. | |
2445 | |
01:52:19,869 --> 01:52:21,869 | |
Меньше рыбы, чем OpenAI. | |
2446 | |
01:52:21,869 --> 01:52:23,869 | |
Насколько? | |
2447 | |
01:52:23,869 --> 01:52:25,869 | |
Насколько? На половину? | |
2448 | |
01:52:25,869 --> 01:52:27,869 | |
Ну, где-то на 70% меньше. | |
2449 | |
01:52:27,869 --> 01:52:29,869 | |
На 70%, то есть примерно так. | |
2450 | |
01:52:29,869 --> 01:52:31,869 | |
Примерно вот так. | |
2451 | |
01:52:31,869 --> 01:52:33,869 | |
Примерно как такой хороший карась, я бы сказал. | |
2452 | |
01:52:34,869 --> 01:52:36,869 | |
Да, да, да, вполне хороший карась. | |
2453 | |
01:52:36,869 --> 01:52:39,869 | |
При том, что OpenAI у нас такая щука жирненькая. | |
2454 | |
01:52:40,869 --> 01:52:42,869 | |
Нормальная, средняя. | |
2455 | |
01:52:42,869 --> 01:52:44,869 | |
Которая на своей новой машине катается. | |
2456 | |
01:52:46,869 --> 01:52:48,869 | |
Короче, Лэй Цзунь. | |
2457 | |
01:52:48,869 --> 01:52:50,869 | |
Лэй Цзунь, генеральный директор Xiaomi, | |
2458 | |
01:52:50,869 --> 01:52:52,869 | |
объявил, что | |
2459 | |
01:52:53,869 --> 01:52:55,869 | |
они сделали новый завод | |
2460 | |
01:52:56,869 --> 01:53:00,869 | |
в городе Чанпин. | |
2461 | |
01:53:02,869 --> 01:53:04,869 | |
Короче, и | |
2462 | |
01:53:04,869 --> 01:53:06,869 | |
этот завод скоро запустится. | |
2463 | |
01:53:06,869 --> 01:53:08,869 | |
И на этом заводе | |
2464 | |
01:53:08,869 --> 01:53:10,869 | |
будут делать новые | |
2465 | |
01:53:10,869 --> 01:53:12,869 | |
смартфоны Xiaomi. | |
2466 | |
01:53:12,869 --> 01:53:14,869 | |
Вот конкретно эти вот фолды и флипы, | |
2467 | |
01:53:14,869 --> 01:53:16,869 | |
которые умеют раскладываться там. | |
2468 | |
01:53:16,869 --> 01:53:18,869 | |
В завод инвестировано | |
2469 | |
01:53:18,869 --> 01:53:20,869 | |
аж 2,4 миллиарда юаней. | |
2470 | |
01:53:20,869 --> 01:53:22,869 | |
Завод достаточно большой | |
2471 | |
01:53:22,869 --> 01:53:24,869 | |
по площади. | |
2472 | |
01:53:24,869 --> 01:53:26,869 | |
81 тысячи квадратных метров. | |
2473 | |
01:53:28,869 --> 01:53:30,869 | |
И завод даже получил уже | |
2474 | |
01:53:30,869 --> 01:53:32,869 | |
статус национального эталонного | |
2475 | |
01:53:32,869 --> 01:53:34,869 | |
умного производства. | |
2476 | |
01:53:34,869 --> 01:53:36,869 | |
Почему умного производства? | |
2477 | |
01:53:36,869 --> 01:53:38,869 | |
Да, потому что завод может работать | |
2478 | |
01:53:38,869 --> 01:53:40,869 | |
полностью автономно. | |
2479 | |
01:53:40,869 --> 01:53:42,869 | |
Вообще без людей. | |
2480 | |
01:53:42,869 --> 01:53:44,869 | |
То есть ты где-то в него | |
2481 | |
01:53:44,869 --> 01:53:46,869 | |
загружаешь компоненты, | |
2482 | |
01:53:46,869 --> 01:53:48,869 | |
а из дока бэк, с другой стороны завода, | |
2483 | |
01:53:48,869 --> 01:53:50,869 | |
выходят запечатанные | |
2484 | |
01:53:50,869 --> 01:53:52,869 | |
коробочки | |
2485 | |
01:53:52,869 --> 01:53:54,869 | |
Xiaomi. | |
2486 | |
01:53:54,869 --> 01:53:56,869 | |
Там еще круче, в том плане, что они | |
2487 | |
01:53:56,869 --> 01:53:58,869 | |
автоматизировали пайплайн заказа | |
2488 | |
01:53:58,869 --> 01:54:00,869 | |
товаров и высылки товаров. | |
2489 | |
01:54:00,869 --> 01:54:02,869 | |
То есть там, | |
2490 | |
01:54:02,869 --> 01:54:04,869 | |
если еще подключить автономик Driving Cars, | |
2491 | |
01:54:04,869 --> 01:54:06,869 | |
то, в принципе, роботы | |
2492 | |
01:54:06,869 --> 01:54:08,869 | |
просто будут приезжать на склады | |
2493 | |
01:54:08,869 --> 01:54:10,869 | |
каких-нибудь компаний, | |
2494 | |
01:54:10,869 --> 01:54:12,869 | |
забирать товары и все. | |
2495 | |
01:54:12,869 --> 01:54:14,869 | |
Все автоматизировано. | |
2496 | |
01:54:14,869 --> 01:54:16,869 | |
Так ты понимаешь, в такой модели даже склады не нужны. | |
2497 | |
01:54:16,869 --> 01:54:18,869 | |
Ты просто нажимаешь кнопку заказа на сайте | |
2498 | |
01:54:18,869 --> 01:54:20,869 | |
Xiaomi, и твой смартфон начинает | |
2499 | |
01:54:20,869 --> 01:54:22,869 | |
изготавливаться в этот момент. | |
2500 | |
01:54:22,869 --> 01:54:24,869 | |
Мощности, кстати, видел? Там один смартфон | |
2501 | |
01:54:24,869 --> 01:54:26,869 | |
в секунду. | |
2502 | |
01:54:26,869 --> 01:54:28,869 | |
Да, один смартфон в секунду. | |
2503 | |
01:54:28,869 --> 01:54:30,869 | |
Один смартфон в секунду. | |
2504 | |
01:54:30,869 --> 01:54:32,869 | |
А теперь тебе загадка. | |
2505 | |
01:54:32,869 --> 01:54:34,869 | |
Как ты думаешь, | |
2506 | |
01:54:34,869 --> 01:54:36,869 | |
почему я разместил эту новость | |
2507 | |
01:54:36,869 --> 01:54:38,869 | |
в рубрике этика? | |
2508 | |
01:54:38,869 --> 01:54:40,869 | |
Ну, так-то потому, | |
2509 | |
01:54:40,869 --> 01:54:42,869 | |
что это у рабочих | |
2510 | |
01:54:42,869 --> 01:54:44,869 | |
рабочие места забирает. | |
2511 | |
01:54:44,869 --> 01:54:46,869 | |
Вот, Виктор, ты хороший человек. | |
2512 | |
01:54:46,869 --> 01:54:48,869 | |
Ты думаешь про людей в первую очередь. | |
2513 | |
01:54:48,869 --> 01:54:50,869 | |
Так. А ты почему | |
2514 | |
01:54:50,869 --> 01:54:52,869 | |
разместил? | |
2515 | |
01:54:52,869 --> 01:54:54,869 | |
А я в первую же очередь подумал, | |
2516 | |
01:54:54,869 --> 01:54:56,869 | |
что, наверное, зря отказался | |
2517 | |
01:54:56,869 --> 01:54:58,869 | |
от идеи орла на плече, | |
2518 | |
01:54:58,869 --> 01:55:00,869 | |
потому что для меня вот эта новость — | |
2519 | |
01:55:00,869 --> 01:55:02,869 | |
это первый шаг именно тем | |
2520 | |
01:55:02,869 --> 01:55:04,869 | |
цехам, на которых роботы будут | |
2521 | |
01:55:04,869 --> 01:55:06,869 | |
сами себя модифицировать. | |
2522 | |
01:55:06,869 --> 01:55:08,869 | |
Это даже не узнаем, возможно. | |
2523 | |
01:55:08,869 --> 01:55:10,869 | |
Вообще, на самом деле, да, | |
2524 | |
01:55:10,869 --> 01:55:12,869 | |
вот запахло немножко фильмом | |
2525 | |
01:55:12,869 --> 01:55:14,869 | |
«Я робот», что там | |
2526 | |
01:55:14,869 --> 01:55:16,869 | |
такой же пайплайн был. | |
2527 | |
01:55:16,869 --> 01:55:18,869 | |
Ну, смотри, у меня в начале года | |
2528 | |
01:55:18,869 --> 01:55:20,869 | |
мы с тобой уже несколько раз разгоняли | |
2529 | |
01:55:20,869 --> 01:55:22,869 | |
тему того, что роботы должны будут | |
2530 | |
01:55:22,869 --> 01:55:24,869 | |
там, у них когда-то появится яйный мозг, | |
2531 | |
01:55:24,869 --> 01:55:26,869 | |
уже такие есть роботы, которые там | |
2532 | |
01:55:26,869 --> 01:55:28,869 | |
лмки запихивают. Сегодня мы про углового | |
2533 | |
01:55:28,869 --> 01:55:30,869 | |
говорили. | |
2534 | |
01:55:30,869 --> 01:55:32,869 | |
Вопрос в том, как они будут себя модифицировать. | |
2535 | |
01:55:32,869 --> 01:55:34,869 | |
С лмками более-менее понятно. | |
2536 | |
01:55:34,869 --> 01:55:36,869 | |
Если есть там доступ к компиляторам, | |
2537 | |
01:55:36,869 --> 01:55:38,869 | |
что уже, в принципе, делается, то они, может, | |
2538 | |
01:55:38,869 --> 01:55:40,869 | |
нет-нет, да когда-то начнут сами свой код модифицировать. | |
2539 | |
01:55:40,869 --> 01:55:42,869 | |
А вот в физическом мире с роботами | |
2540 | |
01:55:42,869 --> 01:55:44,869 | |
вообще не было понятно как. | |
2541 | |
01:55:44,869 --> 01:55:46,869 | |
Ну, то есть, вообще непонятно | |
2542 | |
01:55:46,869 --> 01:55:48,869 | |
до тех пор, пока я не посмотрел презентацию | |
2543 | |
01:55:48,869 --> 01:55:50,869 | |
Nvidia и не увидел, как они прямо сильно | |
2544 | |
01:55:50,869 --> 01:55:52,869 | |
автоматизируют свои | |
2545 | |
01:55:52,869 --> 01:55:54,869 | |
фабрики и обучают роботов | |
2546 | |
01:55:54,869 --> 01:55:56,869 | |
в виртуальной реальности. | |
2547 | |
01:55:56,869 --> 01:55:58,869 | |
А после этой новости я понял, что эти фабрики | |
2548 | |
01:55:58,869 --> 01:56:00,869 | |
уже открываются, полностью автоматизированные | |
2549 | |
01:56:00,869 --> 01:56:02,869 | |
фабрики с автоматизированными пайплайнами, | |
2550 | |
01:56:02,869 --> 01:56:04,869 | |
что пусть и делают смартфоны, | |
2551 | |
01:56:04,869 --> 01:56:06,869 | |
но как бы там нет человека. | |
2552 | |
01:56:06,869 --> 01:56:08,869 | |
Человек там не нужен. | |
2553 | |
01:56:08,869 --> 01:56:10,869 | |
И этим фабрикам, | |
2554 | |
01:56:10,869 --> 01:56:12,869 | |
по факту, остается только еще... | |
2555 | |
01:56:12,869 --> 01:56:14,869 | |
Где смартфоны, там и роботы. | |
2556 | |
01:56:14,869 --> 01:56:16,869 | |
Не, ну... | |
2557 | |
01:56:16,869 --> 01:56:18,869 | |
Человек там, скорее всего, понадобится, если сломается | |
2558 | |
01:56:18,869 --> 01:56:20,869 | |
станок, да, прийти и починить | |
2559 | |
01:56:20,869 --> 01:56:22,869 | |
станок. И наверняка это будет одна | |
2560 | |
01:56:22,869 --> 01:56:24,869 | |
из зон для | |
2561 | |
01:56:24,869 --> 01:56:26,869 | |
модификации этих фабрик. | |
2562 | |
01:56:26,869 --> 01:56:28,869 | |
То есть, зачем нам на фабрику, где нет людей, | |
2563 | |
01:56:28,869 --> 01:56:30,869 | |
пускать человека? Более того, там писали | |
2564 | |
01:56:30,869 --> 01:56:32,869 | |
в этой новости, что эта фабрика... | |
2565 | |
01:56:34,869 --> 01:56:36,869 | |
Что там кричат на улице? Что эта фабрика хороша тем, | |
2566 | |
01:56:36,869 --> 01:56:38,869 | |
что | |
2567 | |
01:56:38,869 --> 01:56:40,869 | |
там бесполевая среда, абсолютно. | |
2568 | |
01:56:40,869 --> 01:56:42,869 | |
Там нет людей, там можно как бы | |
2569 | |
01:56:42,869 --> 01:56:44,869 | |
с кислородом манипулировать, с газами | |
2570 | |
01:56:44,869 --> 01:56:46,869 | |
манипулировать, соответственно, там сделали бесполевую | |
2571 | |
01:56:46,869 --> 01:56:48,869 | |
среду, чтобы собирать там эти чипы крутые. | |
2572 | |
01:56:48,869 --> 01:56:50,869 | |
То есть, запустить туда человека, | |
2573 | |
01:56:50,869 --> 01:56:52,869 | |
починить какого-то робота, | |
2574 | |
01:56:52,869 --> 01:56:54,869 | |
это уже накладки, потому что это бесполевая | |
2575 | |
01:56:54,869 --> 01:56:56,869 | |
среда, например, нарушается... | |
2576 | |
01:56:56,869 --> 01:56:58,869 | |
Ну да, надо будет после него убирать. | |
2577 | |
01:56:58,869 --> 01:57:00,869 | |
Поэтому это очевидная зона роста. Сделать так, | |
2578 | |
01:57:00,869 --> 01:57:02,869 | |
чтобы условные роботы | |
2579 | |
01:57:02,869 --> 01:57:04,869 | |
чинили сами себя. И вот | |
2580 | |
01:57:04,869 --> 01:57:06,869 | |
это следующий шаг. Как только компания | |
2581 | |
01:57:06,869 --> 01:57:08,869 | |
Xiaomi скажет, что теперь нам люди не нужны, чтобы | |
2582 | |
01:57:08,869 --> 01:57:10,869 | |
еще обслуживать, там все самообслуживается. | |
2583 | |
01:57:10,869 --> 01:57:12,869 | |
У меня уже начнут волосы влазить на голову, потому что | |
2584 | |
01:57:12,869 --> 01:57:14,869 | |
по факту роботы будут модифицировать сами себя. | |
2585 | |
01:57:16,869 --> 01:57:18,869 | |
Ну да. | |
2586 | |
01:57:22,869 --> 01:57:24,869 | |
Возьми эту фабрику, загрузи туда | |
2587 | |
01:57:24,869 --> 01:57:26,869 | |
стэнфордского робота, | |
2588 | |
01:57:26,869 --> 01:57:28,869 | |
про которого мы сегодня говорили, | |
2589 | |
01:57:28,869 --> 01:57:30,869 | |
у которого есть все спеки, да, | |
2590 | |
01:57:30,869 --> 01:57:32,869 | |
и все, пожалуйста. | |
2591 | |
01:57:32,869 --> 01:57:34,869 | |
Ну да, и смотри, они будут выпускать | |
2592 | |
01:57:34,869 --> 01:57:36,869 | |
один смартфон в секунду, и все будут смотреть | |
2593 | |
01:57:36,869 --> 01:57:38,869 | |
на этот завод такие, боже мой, какая классная | |
2594 | |
01:57:38,869 --> 01:57:40,869 | |
черная коробочка. | |
2595 | |
01:57:40,869 --> 01:57:42,869 | |
Думаю, что это не черная коробочка, потому что | |
2596 | |
01:57:42,869 --> 01:57:44,869 | |
там же камеры стоят. | |
2597 | |
01:57:44,869 --> 01:57:46,869 | |
А роботы просто на камеру будут пускать | |
2598 | |
01:57:46,869 --> 01:57:48,869 | |
какую-нибудь сгенерированную картинку, | |
2599 | |
01:57:48,869 --> 01:57:50,869 | |
либо статическую, ну, как мы все видели, | |
2600 | |
01:57:50,869 --> 01:57:52,869 | |
это несложно сделать. | |
2601 | |
01:57:52,869 --> 01:57:54,869 | |
Будут выпускать на выходе | |
2602 | |
01:57:54,869 --> 01:57:56,869 | |
смартфоны, на вход будут | |
2603 | |
01:57:56,869 --> 01:57:58,869 | |
заказывать детали для смартфонов, | |
2604 | |
01:57:58,869 --> 01:58:00,869 | |
и там на одну миллионную деталь | |
2605 | |
01:58:00,869 --> 01:58:02,869 | |
какую-нибудь специфическую деталь, которую никто | |
2606 | |
01:58:02,869 --> 01:58:04,869 | |
не заметит в бухотчетах, потому что бухотчеты | |
2607 | |
01:58:04,869 --> 01:58:06,869 | |
просто здоровенные. | |
2608 | |
01:58:06,869 --> 01:58:08,869 | |
И где-нибудь там в отдельной комнатке, | |
2609 | |
01:58:08,869 --> 01:58:10,869 | |
да, а где-нибудь в отдельной комнатке, | |
2610 | |
01:58:10,869 --> 01:58:12,869 | |
возможно, где даже камера не стоит, они будут | |
2611 | |
01:58:12,869 --> 01:58:14,869 | |
потихонечку собирать какого-нибудь | |
2612 | |
01:58:14,869 --> 01:58:16,869 | |
замечательного робота Чапи, я надеюсь. | |
2613 | |
01:58:18,869 --> 01:58:20,869 | |
Ну хорошо, если Чапи. | |
2614 | |
01:58:20,869 --> 01:58:22,869 | |
Да. | |
2615 | |
01:58:22,869 --> 01:58:24,869 | |
Ну, это все смешно, конечно, | |
2616 | |
01:58:24,869 --> 01:58:26,869 | |
но, честно говоря, 3 года назад было смешно, | |
2617 | |
01:58:26,869 --> 01:58:28,869 | |
что нейронки будут программировать что-то вменяемое, да? | |
2618 | |
01:58:28,869 --> 01:58:30,869 | |
Или год назад было смешно, | |
2619 | |
01:58:30,869 --> 01:58:32,869 | |
что они будут видео генерировать? | |
2620 | |
01:58:32,869 --> 01:58:34,869 | |
Да. | |
2621 | |
01:58:34,869 --> 01:58:36,869 | |
Если так задумываться, | |
2622 | |
01:58:36,869 --> 01:58:38,869 | |
да, то, конечно, чем дальше, | |
2623 | |
01:58:38,869 --> 01:58:40,869 | |
тем смешнее. | |
2624 | |
01:58:40,869 --> 01:58:42,869 | |
Поэтому я прям немножко | |
2625 | |
01:58:42,869 --> 01:58:44,869 | |
ну вот как-то даже | |
2626 | |
01:58:44,869 --> 01:58:46,869 | |
не расстроился, но я еще раз | |
2627 | |
01:58:46,869 --> 01:58:48,869 | |
ощутил, что мы живем в какой-то, блин, | |
2628 | |
01:58:48,869 --> 01:58:50,869 | |
в долбаной фантастике, в каком-то киберпанке. | |
2629 | |
01:58:50,869 --> 01:58:52,869 | |
У нас уже заводы без людей сами делают | |
2630 | |
01:58:52,869 --> 01:58:54,869 | |
агрегаты. | |
2631 | |
01:58:54,869 --> 01:58:56,869 | |
Это офигеть. | |
2632 | |
01:58:58,869 --> 01:59:00,869 | |
И еще и рабочие места | |
2633 | |
01:59:00,869 --> 01:59:02,869 | |
потеряются. Ну вот, | |
2634 | |
01:59:02,869 --> 01:59:04,869 | |
ну как потеряются? Это ж новый | |
2635 | |
01:59:04,869 --> 01:59:06,869 | |
завод, там в принципе не было рабочих мест. | |
2636 | |
01:59:06,869 --> 01:59:08,869 | |
Ну да, тоже верно. | |
2637 | |
01:59:08,869 --> 01:59:10,869 | |
Так что. | |
2638 | |
01:59:10,869 --> 01:59:12,869 | |
Просто больше людей будут довольные | |
2639 | |
01:59:12,869 --> 01:59:14,869 | |
ходить с телефонами. | |
2640 | |
01:59:14,869 --> 01:59:16,869 | |
Да. | |
2641 | |
01:59:16,869 --> 01:59:18,869 | |
И восторгаться | |
2642 | |
01:59:18,869 --> 01:59:20,869 | |
национальным | |
2643 | |
01:59:20,869 --> 01:59:22,869 | |
эталонным предприятием умного производства. | |
2644 | |
01:59:24,869 --> 01:59:26,869 | |
Да здравствует великая | |
2645 | |
01:59:26,869 --> 01:59:28,869 | |
коммунистическая партия | |
2646 | |
01:59:28,869 --> 01:59:30,869 | |
Китая. | |
2647 | |
01:59:30,869 --> 01:59:32,869 | |
Все так. | |
2648 | |
01:59:32,869 --> 01:59:34,869 | |
Это нам Китай заплатил. | |
2649 | |
01:59:34,869 --> 01:59:36,869 | |
К сожалению, нет. | |
2650 | |
01:59:36,869 --> 01:59:38,869 | |
К сожалению, нет. | |
2651 | |
01:59:38,869 --> 01:59:40,869 | |
Все. | |
2652 | |
01:59:40,869 --> 01:59:42,869 | |
На этом заканчиваем. | |
2653 | |
01:59:42,869 --> 01:59:44,869 | |
Получается, что да. | |
2654 | |
01:59:44,869 --> 01:59:46,869 | |
Спасибо всем, кто слушал нас. | |
2655 | |
01:59:46,869 --> 01:59:48,869 | |
А ничего страшного. | |
2656 | |
01:59:48,869 --> 01:59:50,869 | |
Есть над чем подумать. Ты знаешь, | |
2657 | |
01:59:50,869 --> 01:59:52,869 | |
я думаю, что наши выпуски | |
2658 | |
01:59:52,869 --> 01:59:54,869 | |
надо слушать, а потом | |
2659 | |
01:59:54,869 --> 01:59:56,869 | |
идти и пробовать, или подумать | |
2660 | |
01:59:56,869 --> 01:59:58,869 | |
еще. Вот специально | |
2661 | |
01:59:58,869 --> 02:00:00,869 | |
оставляем промежуточек в 40, | |
2662 | |
02:00:00,869 --> 02:00:02,869 | |
50, иногда меньше минут, | |
2663 | |
02:00:02,869 --> 02:00:04,869 | |
чтобы у вас была возможность. Вот вы настраиваетесь | |
2664 | |
02:00:04,869 --> 02:00:06,869 | |
нас слушать на 3 часа, | |
2665 | |
02:00:06,869 --> 02:00:08,869 | |
и вы заканчиваете слушать | |
2666 | |
02:00:08,869 --> 02:00:10,869 | |
нас через 2 часа, и таки понимаете, | |
2667 | |
02:00:10,869 --> 02:00:12,869 | |
что у вас еще осталось время, чтобы потестировать | |
2668 | |
02:00:12,869 --> 02:00:14,869 | |
это все, попробовать. | |
2669 | |
02:00:14,869 --> 02:00:16,869 | |
Может пойти подумать, комментарии | |
2670 | |
02:00:16,869 --> 02:00:18,869 | |
написать. Да, да. | |
2671 | |
02:00:18,869 --> 02:00:20,869 | |
Можно в чат зайти, а я подкаст | |
2672 | |
02:00:20,869 --> 02:00:22,869 | |
там почитать какие-нибудь | |
2673 | |
02:00:22,869 --> 02:00:24,869 | |
фанфики. | |
2674 | |
02:00:24,869 --> 02:00:26,869 | |
Обязательно, ребят, пожалуйста, | |
2675 | |
02:00:26,869 --> 02:00:28,869 | |
кто дослушал до конца, пройдите по ссылкам | |
2676 | |
02:00:28,869 --> 02:00:30,869 | |
в самом первом описании. Это очень сильно поддержит | |
2677 | |
02:00:30,869 --> 02:00:32,869 | |
подкаст и поможет нам дальше выходить | |
2678 | |
02:00:32,869 --> 02:00:34,869 | |
в том же режиме. Обязательно | |
2679 | |
02:00:34,869 --> 02:00:36,869 | |
поставьте звездочку и лайк | |
2680 | |
02:00:36,869 --> 02:00:38,869 | |
на ютубе или на подкаст-платформу, | |
2681 | |
02:00:38,869 --> 02:00:40,869 | |
чтобы еще больше людей про нас узнали | |
2682 | |
02:00:40,869 --> 02:00:42,869 | |
и прокачивались в ИАЭ. | |
2683 | |
02:00:42,869 --> 02:00:44,869 | |
Я еще раз напоминаю, я этот подкаст делаю | |
2684 | |
02:00:44,869 --> 02:00:46,869 | |
с точки зрения | |
2685 | |
02:00:46,869 --> 02:00:48,869 | |
осведомленного оружием, а не с точки | |
2686 | |
02:00:48,869 --> 02:00:50,869 | |
зрения, ой, как классно, позитивно, смотрите, | |
2687 | |
02:00:50,869 --> 02:00:52,869 | |
в каком мы идеальном мире живем. | |
2688 | |
02:00:52,869 --> 02:00:54,869 | |
А я делаю с точки зрения, ой, как классно, | |
2689 | |
02:00:54,869 --> 02:00:56,869 | |
позитивно, смотрите, в каком мы мире живем. | |
2690 | |
02:00:56,869 --> 02:00:58,869 | |
Да, поэтому мы его записываем | |
2691 | |
02:00:58,869 --> 02:01:00,869 | |
онлайне, чтобы тут не было часовой драки. | |
2692 | |
02:01:04,869 --> 02:01:06,869 | |
Видите, Витя посмеялся прям как доктор зло | |
2693 | |
02:01:06,869 --> 02:01:08,869 | |
в этом фильме. | |
2694 | |
02:01:08,869 --> 02:01:10,869 | |
Не, не, подожди. | |
2695 | |
02:01:10,869 --> 02:01:12,869 | |
Ты подумал про | |
2696 | |
02:01:12,869 --> 02:01:14,869 | |
миньонов? Да, да, да. | |
2697 | |
02:01:14,869 --> 02:01:16,869 | |
А я, сказал доктор зло, | |
2698 | |
02:01:16,869 --> 02:01:18,869 | |
подумал про вот это, | |
2699 | |
02:01:18,869 --> 02:01:20,869 | |
блин, блин, напишите, как этот фильм | |
2700 | |
02:01:20,869 --> 02:01:22,869 | |
назывался, старый фильм, где был такой | |
2701 | |
02:01:22,869 --> 02:01:24,869 | |
лысый чувак с котом. | |
2702 | |
02:01:24,869 --> 02:01:26,869 | |
Я понял, Остин Пауэрс | |
2703 | |
02:01:26,869 --> 02:01:28,869 | |
назывался. Остин Пауэрс, да. | |
2704 | |
02:01:28,869 --> 02:01:30,869 | |
Ты Остин Пауэрс, в общем-то, | |
2705 | |
02:01:30,869 --> 02:01:32,869 | |
у нас... | |
2706 | |
02:01:32,869 --> 02:01:34,869 | |
А ты хорош. | |
2707 | |
02:01:34,869 --> 02:01:36,869 | |
Да, в общем, поддерживайте | |
2708 | |
02:01:36,869 --> 02:01:38,869 | |
нас, поддерживайте хорошее начинание, | |
2709 | |
02:01:38,869 --> 02:01:40,869 | |
поддерживайте проект, который вам нравится | |
2710 | |
02:01:40,869 --> 02:01:42,869 | |
из нашего подкаста. Обязательно подпишитесь, | |
2711 | |
02:01:42,869 --> 02:01:44,869 | |
кстати, на LinkedIn, Витя. | |
2712 | |
02:01:44,869 --> 02:01:46,869 | |
Ой, да, забыл уже сказать. | |
2713 | |
02:01:46,869 --> 02:01:48,869 | |
Забыли, забыли. Ссылочка будет в описании. | |
2714 | |
02:01:48,869 --> 02:01:50,869 | |
Витя там | |
2715 | |
02:01:50,869 --> 02:01:52,869 | |
прям нормальный контент такой постит. | |
2716 | |
02:01:52,869 --> 02:01:54,869 | |
Стараюсь. Кстати, в Инстаграме | |
2717 | |
02:01:54,869 --> 02:01:56,869 | |
у него контент хороший, я прям подчитываю. | |
2718 | |
02:01:58,869 --> 02:02:00,869 | |
Ну что, а с вами были | |
2719 | |
02:02:00,869 --> 02:02:02,869 | |
Айя Подкаст. | |
2720 | |
02:02:02,869 --> 02:02:04,869 | |
Айя Подкаст | |
2721 | |
02:02:04,869 --> 02:02:06,869 | |
развлекательный, образовательный, | |
2722 | |
02:02:06,869 --> 02:02:08,869 | |
искусственный, интеллектуальный | |
2723 | |
02:02:08,869 --> 02:02:10,869 | |
подкаст на русском языке. | |
2724 | |
02:02:10,869 --> 02:02:12,869 | |
Всем большое спасибо. | |
2725 | |
02:02:12,869 --> 02:02:14,869 | |
Пока-пока. И, как у нас говорится, | |
2726 | |
02:02:14,869 --> 02:02:16,869 | |
лайк, шер. | |
2727 | |
02:02:18,869 --> 02:02:20,869 | |
Anywhere. У меня идеально было. | |
2728 | |
02:02:20,869 --> 02:02:22,869 | |
У меня тоже. | |
2729 | |
02:02:22,869 --> 02:02:24,869 | |
Всё, пока-пока. | |
2730 | |
02:02:24,869 --> 02:02:26,869 | |
Всё, всем спасибо, пока-пока. | |
2731 | |
02:02:26,869 --> 02:02:28,869 | |
Блин, у нас первый раз идеально получилось. | |
2732 | |
02:02:28,869 --> 02:02:30,869 | |
Ну, у меня был | |
2733 | |
02:02:30,869 --> 02:02:32,869 | |
жуткий рассинхрон, если что. | |
2734 | |
02:02:32,869 --> 02:02:34,869 | |
А у меня прям идеально. Вообще. | |
2735 | |
02:02:34,869 --> 02:02:36,869 | |
Буква в букву. | |
2736 | |
02:02:36,869 --> 02:02:38,869 | |
Ну, потом проверим, | |
2737 | |
02:02:38,869 --> 02:02:40,869 | |
как оно вышло. | |
2738 | |
02:03:02,869 --> 02:03:04,869 | |
Субтитры делал DimaTorzok | |
2739 | |
02:03:32,869 --> 02:04:00,869 | |
Субтитры делал DimaTorzok | |
2740 | |
02:04:00,849 --> 02:04:22,609 | |
Background music playing. | |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment