Skip to content

Instantly share code, notes, and snippets.

@butschster
Last active July 14, 2024 18:54
Show Gist options
  • Save butschster/023b74247335dcdbcc0208eb0caf020c to your computer and use it in GitHub Desktop.
Save butschster/023b74247335dcdbcc0208eb0caf020c to your computer and use it in GitHub Desktop.
AIA Podcast #37
00:00:28 - Обсуждение Rabbit R1
Rabbit R1 — абсолютно бесполезная вещь за 100 долларов, но очень красивая и эстетически приятная. Зарядка устройства сопровождается уютной анимацией спящего зайца.
00:03:37 - Впечатления о поездке в Турцию
Поездка в Турцию была замечательной, но участники слабо помнят, что обсуждали.
00:04:05 - Демонстрация устройства Рэббит
Леша показывает в камеру включающийся гаджет Рэббит, комментируя, что у него красивая графика.
00:04:48 - Впечатления от поездки в Турцию
Посетили Турцию, попали на футбольный матч, где Турция выиграла. Праздновали вместе с местными жителями.
00:05:39 - Размышления о творческих планах
Обсуждали запись музыкального клипа и кассет. Планируют записать свои песни.
00:06:30 - Начало подкаста и формат
Обсуждение формата подкаста, порядок действий и шутки о прошлом опыте.
00:07:53 - Введение и приветствие участников
00:08:25 - Обсуждение тем подкаста, включая OpenAI и Google
00:09:10 - Представление партнера подкаста NGX
00:09:26 - Описание курсов от NGX, связанных с AI
00:10:07 - Новые образовательные программы для команд от NGX
NGX предлагает образовательные программы для команд: GEN-AI Adoption Program и Navigation Team Dynamics, которые направлены на обучение с использованием AI и улучшение командной динамики.
00:12:34 - Чат Айаподкаста в Телеграме
Слушатели могут присоединиться к чату Айаподкаста в Телеграме для обсуждения курсов и участия в стримах.
00:14:07 - Обсуждение формата подкаста
00:14:45 - Взлом OpenAI
00:15:45 - Анализ последствий взлома
00:16:01 - Взлом OpenAI и реакция на него
Компания OpenAI заявила о взломе, но не предоставила никаких подробностей, вызывая удивление и вопросы о безопасности и прозрачности.
00:17:09 - Доверие к OpenAI
Обсуждение доверия к OpenAI и попытки разобраться, почему компания не раскрывает больше информации о взломе.
00:17:39 - Уволенный сотрудник и внутренняя ситуация
История о том, как уволенный сотрудник компании предупреждал о взломе и его последствиях, а также роль высокопоставленных лиц в управлении кризисом.
00:18:45 - Взлом OpenAI и утечка данных
Появились слухи о взломе OpenAI, который мог быть сфабрикован маркетологами компании. Несмотря на это, обсуждается, что утечка данных все же могла произойти, но ее замолчало правительство из-за национальной значимости OpenAI.
00:20:34 - Влияние технологических компаний на политику
Компании, такие как OpenAI, могут начать определять политику стран. Обсуждается, как такие компании приобретают влияние и роль этики в этом процессе.
00:20:36 - Новый член совета директоров OpenAI
По слухам, членом совета директоров OpenAI мог стать человек из Apple, но антимонопольные органы США воспротивились из-за возможного конфликта интересов.
00:21:58 - Давление на Microsoft и OpenAI
00:23:00 - Сделка между OpenAI и Time
00:23:54 - Сэм Альтман и его роскошная машина
00:24:45 - Обсуждение лимитированной серии автомобилей Regera, их стоимость и популярность среди миллиардеров.
00:25:27 - Разговор о реакции Сэма Альтмана на съемку на улице, его статус суперзвезды.
00:26:02 - Обсуждение увольнения Сэма Альтмана из совета директоров и возвращения денег Microsoft.
00:26:10 - Сравнение Сэма Альтмана с персонажем из сериала "Академия Амбрелла".
00:26:45 - Переход к обсуждению дохода OpenAI, оценка в 3-4 миллиарда долларов в год.
00:27:12 - По оценкам OpenAI зарабатывает 3-4 миллиарда в год, основную часть доходов (55%) генерирует подписка на GPT+, 21% - ChatGPT Enterprise, и только 8% - API.
00:30:06 - Обсуждение обновлений OpenAI и Stability.ai
Компания Stability.ai наняла нового директора и ввела лицензионные сборы для бизнесов с выручкой более миллиона долларов. Это может помочь компании выжить, несмотря на их нестабильность.
00:32:27 - Пузырь вокруг искусственного интеллекта
В конце будет статья о большом пузыре вокруг ИИ, показывающая, что не все так хорошо у OpenAI и других компаний.
00:32:43 - OpenAI и Google DeepMind
OpenAI и другие крупные игроки набирают пользовательскую базу, в то время как Stability AI пытается выйти в ноль. Google DeepMind представили новую систему навигации для роботов, которая показывает хорошие результаты.
00:34:43 - Хром с G-mini Nano
Google начал тестирование новой версии Chrome с встроенной G-mini Nano, которая работает локально и показывает хорошие результаты, несмотря на компактные размеры модели.
00:35:50 - Локальные языковые модели
Местные ЛМ могут отвечать на вопросы, писать код и работать офлайн, но их потенциальное использование пока неясно.
00:37:42 - Планы Amazon в AI
Amazon давно в ИИ-гонке с Bedrock, но теперь они разрабатывают собственную мультимодальную модель Metis.
00:38:46 - Обзор новых мультизадачных моделей от Amazon
Amazon разрабатывает мультимодальные модели, конкурирующие с GPZ 4.0, в первую очередь для AWS. У Amazon достаточно мощностей для экспериментов, и они стремятся избежать переобучения существующих open-source моделей.
00:39:42 - Покупка AMD лаборатории ИИ в Европе
AMD приобрела крупнейшую в Европе лабораторию искусственного интеллекта за 665 млн долларов. Это шаг, направленный на укрепление их позиций на рынке AI, возможно, с целью разработки новых архитектур процессоров, заточенных под AI.
00:42:21 - Обзор AI на конференции Samsung
На конференции Samsung представили нового помощника Galaxy AI, который переводит в реальном времени, рисует и редактирует фотографии с помощью AI. Функции кажутся более совершенными, чем у Apple, включая живой переводчик и возможность добавления объектов на фотографиях.
00:45:22 - Обсуждение умных колец Galaxy и Auar Ring
Galaxy Ring составило конкуренцию Auar Ring с аналогичными функциями мониторинга здоровья. Galaxy Ring может обнаруживать храп и отслеживать уровень сахара в крови, также было обсуждение стартапов и технологий измерения здоровья.
00:48:20 - Обсуждение конференции и Сидни Суини, попытки интерактива и кринж.
00:49:26 - ИИ анализирует физические данные, обсуждение информации о здоровье в телефонах.
00:52:37 - Google Pixel и инфраструктурные войны
Обсуждение инфраструктурных войн между технологическими компаниями и предпочтения в использовании Google Pixel.
00:52:41 - Илон Маск и Грок 2
Илон Маск анонсировал выход новой версии Грок 2, которую тренировали на мощной инфраструктуре, и планы на разработку Грок 3.
00:53:58 - Сервис от создателя Quora
Рассказ о новом сервисе от создателя Quora, который позволяет создавать чат-ботов на базе различных LLM-интерфейсов с поддержкой HTML, CSS, JavaScript и возможностью добавления Python.
00:54:42 - POE и его возможности
POE позволяет редактировать части кода без перегенерации и имеет большое контекстное окно для вывода. Пример использования - написание кода для шахмат, который затем был успешно объединен для корректной работы.
00:57:02 - Функционал и новые возможности Антропика
Антропик добавил возможность публиковать и расшаривать артефакты, аналогичную GPTIS. Важно наличие удобного каталога с рекомендациями и поиском.
00:57:58 - Взаимодействие По с GPT-4
Обновления у По включали возможность шаринга, и приложение получило GPT-4 не в день релиза, а в час его выхода.
00:59:03 - Конференция World Artificial Intelligence Conference в Китае
На конференции была представлена модель Sense Nova 5.5, способная к мультимодальной обработке аудио, текста и видео, конкурирующая с RG504O.
01:00:21 - Университет Карнеги Мэлон и модель Xeus
Университет Карнеги Мэлон выпустил аудиомодель Xeus, которая переводит речь с английского на русский.
01:01:10 - Новая LLM для камушков
01:01:10 - Новая LLM обучена на миллионах часов аудиофайлов и поддерживает 4000 языков. Компании Atimatic запустила LLM под названием Simicong, заточенную под работу с полупроводниками.
01:03:04 - Релиз MoshiChat
01:03:04 - Французская лаборатория Kuaytay Labs выпустила сервис MoshiChat, аналог GPC 4.0, который OpenAI ещё не релизнули.
01:04:15 - Обзор сервиса с высокой скоростью ответа
Высокая скорость ответа сервиса Moshi, который работает на основе маленькой модели Helium 7b, делает его идеальным для стриминга и настройки температуры для генерации аудио.
01:05:31 - Новый стартап в сфере генерации видео
Стартап "Одиссея" разрабатывает систему, которая генерирует видео на основе текста, предлагая гибкие возможности изменения объектов и сцен.
01:07:05 - Художники и технологии Odyssey
Студия Odyssey использует данные от компьютеров-виженов самоуправляемых автомобилей для создания 3D-сцен. Среди их инвесторов значатся Google Ventures, Y-комбинатор и специалисты из DeepMind.
01:08:01 - Доступ к Gen3 Alpha и стоимость генерации
Gen3 Alpha открыл доступ для всех, но генерация дорогая, и необходимо несколько попыток для получения хорошего результата. Пользователи отмечают, что удачная генерация получается приблизительно с сороковой попытки.
01:09:21 - Релиз системы Клинк
Китайский сервис Клинк, который генерирует видео из текста, также был выпущен. Однако, для его использования нужно знать китайский язык или использовать переводчики.
01:09:46 - Проблемы генеративного видео с гимнастами
Нейросети плохо справляются с генерацией гимнастов и спортсменов, создавая смешные искаженные изображения, где конечности перемешиваются.
01:11:06 - Прогресс в технологиях генеративного видео
Обсуждение быстрого прогресса технологий, начиная с генерации смешных изображений вроде пиццы с лицом до более качественных видео.
01:11:50 - Фигма и ее отключенный функционал
Фигма временно отключила функцию автоматического создания интерфейсов из-за того, что она копировала дизайн приложения Apple для погоды.
01:12:37 - Похожие генерации и отключение функционала
Пользователи заметили, что многие генерации в Фигма похожи на суперпопулярные сервисы, вызвав слухи, что Фигма обучала модель на данных пользователей без их согласия, что привело к отключению функционала.
01:13:36 - Обновление Perplexity и интеграция с Wolfram Alpha
Perplexity обновила функционал платной подписки ProSearch, добавив новые функции, такие как обработка сложных запросов, улучшенные рассуждения и интеграция с Wolfram Alpha для расчетов и построения графиков.
01:14:33 - Инструмент Voice Isolator от Eleven Labs
Eleven Labs представила инструмент Voice Isolator, который удаляет шумы из записи голоса, демонстрируя его эффективность с помощью забавного примера с промышленным пылесосом.
01:16:00 - Тренировка агентов в Minecraft
В Minecraft начали тренировать агентов, что открывает новые возможности и перспективы для использования игры в обучающих и исследовательских целях.
01:16:06 - Обучение агентов в Minecraft
Майнкрафт предоставляет упрощенную и контролируемую среду с хорошей физикой и кубической системой, что позволяет эффективно тренировать агентов, таких как Omni Jarvis.
01:18:26 - Андрэй Карпаты и LLM OS
Андрей Карпаты выступил на церемонии награждения и представил концепцию операционной системы на основе больших языковых моделей, сравнивая их с процессорами, которые смогут выполнять различные задачи.
01:19:24 - Будущее операционных систем на базе LLM
Обсуждение концепции операционных систем на базе Large Language Models (LLM), которые могут генерировать контент и потенциально создавать бесконечные сериалы.
01:20:24 - Разработка робота Human Plus
Исследователи из Стэнфорда разработали open-source робота Human Plus, который может обучаться движению через наблюдение и не вызывает эффекта зловещей долины.
01:22:05 - Чтение мыслей обезьян с помощью нейрошунтов
Ученые из Нидерландов с использованием нейрошунтов смогли предсказывать, что видит обезьяна, что является важным шагом в развитии нейротехнологий.
01:22:45 - Обработка изображений с помощью нейронных сетей
Эксперименты с нейронными сетями добиваются высоких результатов в воспроизведении изображений с высоким качеством, несмотря на некоторые недостатки. Результаты напоминают кошмары из снов, но показывают перспективы для будущих исследований.
01:23:59 - Прогресс в нейротехнологиях и применение шунтов
Обсуждение использования шунтов на обезьянах и возможного применения на людях компанией Neuralink. Примечается продвижение в создании телепатических способностей и управлении роботами.
01:25:03 - Партнерство OpenAI с Национальной лабораторией Лос-Аламоса
OpenAI сотрудничает с Лос-Аламосской национальной лабораторией для использования GPT-4.0 в биологических исследованиях. Модель будет помогать в культивировании клеток и других научных задачах, выступая в роли интеллектуального лаборанта.
01:26:05 - Лаборатория Лос-Альмас и GPT-4
Лаборатория Лос-Альмас, известная Манхэттенским проектом, планирует использовать GPT-4 в биологических исследованиях и мирных целях. Это вызывает опасения, учитывая их прошлое.
01:27:44 - Кандидат в мэры и ИИ-система
Кандидат в мэры Виктор Миллер заявил, что его решения будет принимать ИИ-система на основе GPT-4, что вызвало много вопросов и критики.
01:29:30 - Виктор и роль ИИ в политике
Виктор заявил, что ИИ умнее большинства политиков и предложил, чтобы ИИ принимал важные решения за него, хотя и понимал, что нынешняя версия GPT не готова к таким задачам.
01:31:05 - Гонка США и Китая в сфере ИИ
США и Китай стремятся создать системы ИИ, которые могут принимать решения быстрее людей, но для этого нужны компетентные специалисты, способные настроить эти системы.
01:32:03 - Этика использования ИИ
Обсуждается, насколько этично позволить ИИ принимать решения и что в конечном итоге ответственность все равно будет на человеке, который контролирует ИИ.
01:32:23 - Эксперимент с ИИ-главой деревни
Идея проведения эксперимента, где ИИ становится городским старостой небольшой деревни, чтобы оценить его эффективность и влияние на общество.
01:34:06 - Минобороны Японии опубликовало политику по использованию ИИ в военных целях, включая обнаружение целей, сбор разведданных и управление беспилотными системами, с финальными решениями от человека. Япония подчеркивает необходимость таких мер, учитывая аналогичные усилия со стороны США и Китая.
01:37:45 - Обсуждение военного использования технологий
Участники обсуждают, где могут быть использованы новые технологии, намекают на систему обороны, и выражают недовольство гонкой вооружений.
01:38:42 - Переход к сервисам и ссылкам
Рассказ о различных сервисах и инструментах, упомянутых на протяжении выпуска, и благодарность коллеге за помощь с записью видео в аэропорту.
01:39:33 - Технические проблемы и решение
Описание проблемы с записью видео в аэропорту и использование различных приложений для обработки звука и видео на телефоне, включая сложности с Adobe Audition и Enhanced Speech.
01:40:58 - Обсуждение Adobe Enhance и AUPHONIC
Adobe Enhance добавляет английский акцент к русской речи. Паша порекомендовал AUPHONIC для обработки звука, который дал отличные результаты.
01:43:13 - Введение к обсуждению пузыря
Разговор о том, что пузырь является идеальной формой 3D-объекта. Обсуждение новости, связанной с пузырем вокруг AI.
01:43:56 - Стагнация в AI-индустрии и её последствия
Sequoia Capital подсчитала, что дата-центры тратят больше на оборудование, чем зарабатывают. OpenAI вносит значительный вклад в этот пузырь, и есть вероятность его разрыва.
01:47:03 - Обсуждение EА и финансовых рисков для NVIDIA
Сейчас EА может заменить некоторых людей, что очевидно. Однако кредитные риски и возможные финансовые сокращения могут привести к застою и отказу от новых закупок.
01:48:14 - Завышенные акции и возможные последствия для NVIDIA
В случае падения акций NVIDIA компании придется сократить закупки и остановить развитие. Это может привести к застою и отказу от новых проектов.
01:49:05 - Риски разработки специализированных чипов для LLM
Сейчас компании не спешат разрабатывать специализированные чипы для LLM из-за нестабильности рынка. Пузырь вокруг LLM может лопнуть, и тогда эти чипы будут никому не нужны.
01:49:43 - Обсуждение майнинга и криптовалют
01:50:19 - Возможный новый криптобум
01:50:45 - Переход к обсуждению пузыря вокруг AI
01:51:21 - Призыв к зрителям оставить комментарии
01:51:30 - Переход к последней новости о компании Xiaomi
01:52:46 - Лэй Цзунь и новый завод Xiaomi
Лэй Цзунь объявил о новом заводе Xiaomi в Чанпине, где будут производить смартфоны. Завод полностью автономный и может производить один смартфон в секунду.
01:54:30 - Этические вопросы автоматизации
Обсуждение этических вопросов, связанных с автоматизацией и потерей рабочих мест. Рассматривается будущее, где роботы могут сами себя модифицировать.
01:55:26 - Автономные фабрики и роботы
Фабрики Nvidia теперь полностью автоматизированы и работают без людей, производя смартфоны и другие технологии. В будущем роботы смогут сами себя чинить, что сделает человеческое участие ненужным.
01:58:00 - Автономные заводы и киберпанк
Автономные заводы уже производят оборудование без участия людей, что вызывает чувство фантастики и киберпанка. Это может привести к потере рабочих мест, но также к увеличению количества довольных людей с телефонами.
01:59:46 - Заключение и призыв к действию
Завершается обсуждение с предложением слушателям подумать, протестировать и оставить комментарии. Призыв подписаться и поддержать подкаст, чтобы он продолжал выходить в том же формате и помогал людям развиваться в ИАЭ.
Текст не содержит значимого содержания, поэтому исключен из резюме.
0
00:00:01,000 --> 00:00:04,000
Блин, а песню-то мы какую петь сегодня будем?
1
00:00:05,000 --> 00:00:07,000
— Ты, кстати, поешь. — Не знаю.
2
00:00:07,000 --> 00:00:09,000
— Сегодня ты поешь. — Моя очередь.
3
00:00:09,000 --> 00:00:11,000
— Да-да. — Давай я ищу что-нибудь на Гугле.
4
00:00:11,000 --> 00:00:12,000
— На Гугле.
5
00:00:13,000 --> 00:00:17,000
А пока ты гуглишь, я покажу одну штучку, которая мне пришла.
6
00:00:18,000 --> 00:00:20,000
— Ой, неужели это яйкинг?
7
00:00:21,000 --> 00:00:23,000
— Нет, я яйкинг заказывал.
8
00:00:23,000 --> 00:00:26,000
Те, кто нас смотрит в записи, они увидят это.
9
00:00:26,000 --> 00:00:28,000
Те, кто нас слушают, я говорю словами.
10
00:00:28,000 --> 00:00:32,000
Мне пришла абсолютно бесполезная вещь под названием Rabbit R1.
11
00:00:34,000 --> 00:00:35,000
Почему бесполезная?
12
00:00:35,000 --> 00:00:37,000
— Может быть, ключи этих на обзорщике?
13
00:00:37,000 --> 00:00:40,000
— Ну да. Уже все сказали, что там просто приложение,
14
00:00:40,000 --> 00:00:42,000
которое можно скачать на достопе, поставить,
15
00:00:42,000 --> 00:00:43,000
все то же самое будет.
16
00:00:43,000 --> 00:00:44,000
Я вам скажу...
17
00:00:44,000 --> 00:00:47,000
А, еще и залмали ее, и уже вроде даже фикс сделали.
18
00:00:47,000 --> 00:00:49,000
Ребят, на странице есть CLM,
19
00:00:49,000 --> 00:00:53,000
на которой они пишут, как движется фикс этого бага.
20
00:00:54,000 --> 00:00:55,000
Там с ключами проблемы были.
21
00:00:55,000 --> 00:00:56,000
Я вам так скажу.
22
00:00:56,000 --> 00:00:59,000
Эта штука стоила, по-моему, 200 долларов.
23
00:01:00,000 --> 00:01:03,000
100 долларов они мне дали еще на 100 долларов Перплексисе бесплатно.
24
00:01:03,000 --> 00:01:05,000
То есть по факту она стоила 100 долларов.
25
00:01:05,000 --> 00:01:07,000
И я могу сказать, я ее еще не запускал.
26
00:01:07,000 --> 00:01:09,000
К сожалению, не было у меня времени.
27
00:01:09,000 --> 00:01:10,000
У меня вчера форс-мажор случился.
28
00:01:10,000 --> 00:01:13,000
Жена пальцы в блендер засунула.
29
00:01:13,000 --> 00:01:14,000
Сидели целую ночь.
30
00:01:14,000 --> 00:01:16,000
— Блин, это вообще жесть просто.
31
00:01:16,000 --> 00:01:17,000
— Ну такое бывает.
32
00:01:17,000 --> 00:01:19,000
Все обошлось, палец функциональный.
33
00:01:19,000 --> 00:01:23,000
Ходит теперь в бинте и не может на пистолете курок нажимать какое-то время.
34
00:01:23,000 --> 00:01:24,000
— Повезло тебе, в общем.
35
00:01:25,000 --> 00:01:26,000
— Но это я к чему.
36
00:01:26,000 --> 00:01:29,000
Не успел обозреть эту штуку, но я успел ее вот открыть, распаковать.
37
00:01:29,000 --> 00:01:32,000
Я вам скажу, что даже если она работает херово,
38
00:01:32,000 --> 00:01:35,000
Teenage Engineering сделал охеренно красивую вещь.
39
00:01:35,000 --> 00:01:37,000
Вот я ее в руках держу, и я кайфую.
40
00:01:37,000 --> 00:01:39,000
Если бы она просто была выключенным куском пластмассы,
41
00:01:39,000 --> 00:01:43,000
возможно, я бы даже все равно потратил 100 долларов, чтобы ее купить.
42
00:01:43,000 --> 00:01:44,000
Это красиво.
43
00:01:44,000 --> 00:01:45,000
Колесико, это кнопочка.
44
00:01:45,000 --> 00:01:47,000
— Как легко тебе раскрутить на бабке, Леша.
45
00:01:47,000 --> 00:01:48,000
— Ну реально красиво.
46
00:01:48,000 --> 00:01:49,000
Я его даже не запускал.
47
00:01:49,000 --> 00:01:52,000
Слушай, а даже давай запустить попробуем, если он заряжен.
48
00:01:53,000 --> 00:01:54,000
— Давай-давай.
49
00:01:54,000 --> 00:01:57,000
Будем опозревать Rabbit.R1 в прямом эфире.
50
00:01:57,000 --> 00:01:59,000
— А, сюда еще флешку надо вставить.
51
00:01:59,000 --> 00:02:01,000
Не флешку, а симку.
52
00:02:01,000 --> 00:02:03,000
— А без симки не запустится?
53
00:02:03,000 --> 00:02:04,000
— Запустится.
54
00:02:04,000 --> 00:02:05,000
Он, наверное, разряжен.
55
00:02:05,000 --> 00:02:07,000
Давай, я сейчас кабель включу.
56
00:02:09,000 --> 00:02:11,000
Ну, очень няшная штучка.
57
00:02:11,000 --> 00:02:12,000
Ну, прям выглядит.
58
00:02:12,000 --> 00:02:13,000
Вот Teenage Engineering — молодцы.
59
00:02:13,000 --> 00:02:14,000
О, он разряжен.
60
00:02:14,000 --> 00:02:17,000
И вот мне нарисовала картинка, что пошла зарядка.
61
00:02:17,000 --> 00:02:19,000
Приятно прям.
62
00:02:19,000 --> 00:02:21,000
— Там хомяк в колесе бегает.
63
00:02:21,000 --> 00:02:22,000
— Заяц.
64
00:02:22,000 --> 00:02:23,000
— Заяц в колесе бегает.
65
00:02:23,000 --> 00:02:24,000
— Спит.
66
00:02:24,000 --> 00:02:25,000
Не бегает, а спит в колесе.
67
00:02:25,000 --> 00:02:26,000
— А, он спит?
68
00:02:26,000 --> 00:02:27,000
— Да.
69
00:02:27,000 --> 00:02:28,000
— Ну, поздравляю.
70
00:02:28,000 --> 00:02:30,000
Чего с покупкой?
71
00:02:31,000 --> 00:02:33,000
— Ну, спасибо.
72
00:02:33,000 --> 00:02:36,000
Отдельное спасибо Диме, софтовому блогеру, который мне это все помог.
73
00:02:36,000 --> 00:02:39,000
— Леш, у меня тут есть крышка от камеры Sony.
74
00:02:39,000 --> 00:02:41,000
Замечательный кусок пластика.
75
00:02:41,000 --> 00:02:44,000
Здесь вот, видишь, можно вот так вот пальцами сжимать.
76
00:02:44,000 --> 00:02:45,000
Ребята из Sony дизайнили.
77
00:02:45,000 --> 00:02:46,000
И прям прикольно.
78
00:02:46,000 --> 00:02:47,000
Оно двигается туда-сюда.
79
00:02:47,000 --> 00:02:48,000
— У меня таких три, Витя.
80
00:02:48,000 --> 00:02:49,000
Можешь мне не продавать.
81
00:02:49,000 --> 00:02:50,000
У меня таких три.
82
00:02:50,000 --> 00:02:51,000
— Е-мое.
83
00:02:51,000 --> 00:02:54,000
Чеб тебе еще продать такого из пластика красивого.
84
00:02:55,000 --> 00:02:56,000
— Так.
85
00:02:56,000 --> 00:02:57,000
Ну, не знаю.
86
00:02:57,000 --> 00:03:00,000
Заряжается, но не включается пока что.
87
00:03:01,000 --> 00:03:02,000
Ладно.
88
00:03:03,000 --> 00:03:06,000
Уже в следующий раз расскажу в следующем стриме, короче,
89
00:03:06,000 --> 00:03:08,000
про впечатление, когда пообновляю все.
90
00:03:08,000 --> 00:03:09,000
Но выглядит прям приятно.
91
00:03:09,000 --> 00:03:10,000
— Да?
92
00:03:10,000 --> 00:03:11,000
— Приятный кусок пластика.
93
00:03:11,000 --> 00:03:14,000
— Смотри, ты в прошлом выпуске анонсировал, что мы...
94
00:03:14,000 --> 00:03:15,000
— О, он побежал.
95
00:03:15,000 --> 00:03:16,000
— Побежал.
96
00:03:16,000 --> 00:03:17,000
Заяц побежал.
97
00:03:17,000 --> 00:03:18,000
— Он теперь бежит уже.
98
00:03:18,000 --> 00:03:19,000
— В колесе.
99
00:03:19,000 --> 00:03:21,000
— Он будет в колесе и зарядит твое устройство.
100
00:03:21,000 --> 00:03:24,000
Ты в прошлом выпуске говорил, что мы с тобой в Турцию поедем.
101
00:03:24,000 --> 00:03:26,000
Ну, как мы с тобой, наша команда.
102
00:03:28,000 --> 00:03:29,000
— Так.
103
00:03:29,000 --> 00:03:30,000
— Да, и как мы съездили.
104
00:03:30,000 --> 00:03:32,000
— О, он теперь, извини, побежал.
105
00:03:32,000 --> 00:03:33,000
Реально теперь бегает.
106
00:03:33,000 --> 00:03:34,000
— Теперь бегает, да.
107
00:03:34,000 --> 00:03:35,000
— Дикой на анимации.
108
00:03:35,000 --> 00:03:36,000
— Ну, как?
109
00:03:36,000 --> 00:03:37,000
— Еще и анимации показывает.
110
00:03:37,000 --> 00:03:38,000
— Ну, ты расскажи, как мы съездили,
111
00:03:38,000 --> 00:03:40,000
потому что мы так и съездили в Турцию.
112
00:03:40,000 --> 00:03:42,000
— Да, мы съездили, и было просто замечательно.
113
00:03:42,000 --> 00:03:43,000
— У нас же подкаст про EI можно рассказать.
114
00:03:43,000 --> 00:03:44,000
— Да.
115
00:03:44,000 --> 00:03:47,000
Ну, мы там много EI обсуждали на самом деле.
116
00:03:47,000 --> 00:03:49,000
Насколько я помню.
117
00:03:49,000 --> 00:03:51,000
— Мы там EI обсуждали?
118
00:03:51,000 --> 00:03:53,000
— Ну, соври.
119
00:03:53,000 --> 00:03:55,000
— Я совсем плохо помню, что мы там обсуждали.
120
00:03:55,000 --> 00:03:57,000
У нас была очень интенсивная поездка.
121
00:03:57,000 --> 00:03:59,000
— Чтобы как-то подвязаться к подкасту.
122
00:03:59,000 --> 00:04:01,000
Короче, ребята, для тех, кто волнуется,
123
00:04:01,000 --> 00:04:03,000
хорошо мы отдохнули или нет,
124
00:04:03,000 --> 00:04:05,000
мы отдохнули замечательно.
125
00:04:05,000 --> 00:04:08,000
А Леша показывает в камеру включающийся Рэббит.
126
00:04:09,000 --> 00:04:11,000
И там написано Рэббит.
127
00:04:11,000 --> 00:04:13,000
— Я сам через камеру смотрю.
128
00:04:13,000 --> 00:04:15,000
Представляете, насколько я люблю нашу аудиторию?
129
00:04:15,000 --> 00:04:18,000
Я смотрю на экран, я смотрю через камеру вместе с вами.
130
00:04:18,000 --> 00:04:20,000
— Ты смотришь глазами аудитории.
131
00:04:20,000 --> 00:04:22,000
— Так, у нас аудиоподкаст, надо комментировать.
132
00:04:22,000 --> 00:04:25,000
Там сейчас R1 написано, и крутится что-то.
133
00:04:28,000 --> 00:04:30,000
Ииии, слушай, ну графика классная.
134
00:04:30,000 --> 00:04:32,000
Кусок этой коробочки,
135
00:04:32,000 --> 00:04:34,000
еще можно графику запускать какую-то.
136
00:04:34,000 --> 00:04:35,000
Классно.
137
00:04:35,000 --> 00:04:37,000
— Идеально.
138
00:04:37,000 --> 00:04:39,000
— Дальше уже сервис.
139
00:04:39,000 --> 00:04:41,000
Ну посмотри, как красиво, господи, посмотри.
140
00:04:41,000 --> 00:04:43,000
Ну красиво же.
141
00:04:43,000 --> 00:04:45,000
— Красиво, да. Выглядит красиво.
142
00:04:45,000 --> 00:04:46,000
— Ладно.
143
00:04:46,000 --> 00:04:48,000
Все, уже после стрима буду баловаться.
144
00:04:48,000 --> 00:04:50,000
Турцию съездили, в Турции кайфово.
145
00:04:50,000 --> 00:04:52,000
Попали на футбольный финал,
146
00:04:52,000 --> 00:04:54,000
когда Турция выиграла.
147
00:04:54,000 --> 00:04:56,000
— Ну финал, давай так.
148
00:04:56,000 --> 00:04:58,000
— Ну типа ладно, одна восьмая финала,
149
00:04:58,000 --> 00:04:59,000
где Турция выиграла.
150
00:04:59,000 --> 00:05:00,000
Мы были в маленьком городке.
151
00:05:00,000 --> 00:05:02,000
Весь этот город всю ночь ездил на машинах,
152
00:05:02,000 --> 00:05:05,000
палил факел, и полиция вместе с ними праздновала.
153
00:05:05,000 --> 00:05:07,000
И мы вместе с ними праздновали.
154
00:05:07,000 --> 00:05:09,000
Ходили в колоннах, танцевали.
155
00:05:09,000 --> 00:05:10,000
— Нас даже не побили.
156
00:05:10,000 --> 00:05:11,000
— Нас никто не побил.
157
00:05:11,000 --> 00:05:13,000
Научились правильную турецкую казу делать.
158
00:05:13,000 --> 00:05:14,000
Вот такую.
159
00:05:14,000 --> 00:05:15,000
У них так все делали, вот так.
160
00:05:15,000 --> 00:05:16,000
— С мордочкой, да?
161
00:05:16,000 --> 00:05:17,000
— Да.
162
00:05:17,000 --> 00:05:19,000
Как Рэббит М. Ван, кстати, Руан.
163
00:05:19,000 --> 00:05:21,000
Я считаю, классно съездили.
164
00:05:21,000 --> 00:05:24,000
Ну и, конечно же, подумали над много чем интересным.
165
00:05:24,000 --> 00:05:27,000
Может быть, скоро вы увидите результаты наших раздумий.
166
00:05:29,000 --> 00:05:30,000
— Возможно.
167
00:05:30,000 --> 00:05:32,000
— Да, могли бы, конечно, кассеты записать в это время,
168
00:05:32,000 --> 00:05:34,000
но не в этот раз.
169
00:05:34,000 --> 00:05:35,000
— Но это слишком просто.
170
00:05:35,000 --> 00:05:36,000
— Это слишком просто.
171
00:05:36,000 --> 00:05:39,000
Но мы запишем, дека стоит, кассеты готовы.
172
00:05:39,000 --> 00:05:42,000
Мы еще всерьез задумывались о том,
173
00:05:42,000 --> 00:05:45,000
что надо бы музыкальный клип записать с Алексеем.
174
00:05:45,000 --> 00:05:47,000
— А-а-а, ты про это?
175
00:05:48,000 --> 00:05:49,000
— Да, про это тоже.
176
00:05:49,000 --> 00:05:51,000
Но мы забили, короче, и не записали.
177
00:05:52,000 --> 00:05:54,000
— Блин, я думаю, он бы был слишком не кринжовый,
178
00:05:54,000 --> 00:05:57,000
потому что мы бы там, конечно же, это все красиво сделали в Турции.
179
00:05:57,000 --> 00:05:59,000
— Ну, сто процентов, да, сто процентов.
180
00:05:59,000 --> 00:06:00,000
Где мы и где кринжовые.
181
00:06:02,000 --> 00:06:03,000
Слушай, я тебе так скажу.
182
00:06:03,000 --> 00:06:08,000
Давай мы еще пару своих песен запишем на кассету, может быть.
183
00:06:10,000 --> 00:06:11,000
— Блин.
184
00:06:12,000 --> 00:06:13,000
— Ты повышаешь ставки.
185
00:06:14,000 --> 00:06:15,000
— Как тебе идея?
186
00:06:16,000 --> 00:06:17,000
— Прям своих, да?
187
00:06:18,000 --> 00:06:19,000
— Ну, конечно, конечно.
188
00:06:20,000 --> 00:06:21,000
— Ой, не знаю.
189
00:06:21,000 --> 00:06:22,000
Тут просто бы записать кассеты.
190
00:06:22,000 --> 00:06:24,000
Ну, давай как идею отложим на стеке.
191
00:06:24,000 --> 00:06:25,000
— Угу.
192
00:06:25,000 --> 00:06:26,000
— В принципе.
193
00:06:26,000 --> 00:06:27,000
— Мало ли, вдруг получится.
194
00:06:29,000 --> 00:06:30,000
Ай, ладно.
195
00:06:30,000 --> 00:06:34,000
Давай мы перейдем к тому, что будем рассказывать,
196
00:06:34,000 --> 00:06:35,000
зачем мы здесь собрались.
197
00:06:35,000 --> 00:06:37,000
А то вдруг кто-то не знает.
198
00:06:37,000 --> 00:06:39,000
Ты как-то совсем забыл, что ли, за две недели,
199
00:06:39,000 --> 00:06:40,000
как у нас подкаст строится?
200
00:06:40,000 --> 00:06:44,000
Сначала ты поешь песню, я заряжаюсь этой песней,
201
00:06:44,000 --> 00:06:45,000
потом мы начинаем.
202
00:06:46,000 --> 00:06:47,000
— Разве?
203
00:06:47,000 --> 00:06:48,000
— Конечно.
204
00:06:48,000 --> 00:06:54,000
— Я думал, мы сначала рассказываем про всякие ссылки, клуб, а потом...
205
00:06:54,000 --> 00:06:56,000
— Витя, тебе надо посмотреть АйА подкаст хоть один раз,
206
00:06:56,000 --> 00:06:58,000
чтобы вспомнить, как это делается.
207
00:06:58,000 --> 00:07:00,000
— Да, я такое не смотрю.
208
00:07:00,000 --> 00:07:02,000
— Ты не волнуйся, я тебе все расскажу.
209
00:07:02,000 --> 00:07:04,000
Короче, давай, сейчас твоя песня.
210
00:07:04,000 --> 00:07:05,000
Поехали?
211
00:07:05,000 --> 00:07:08,000
— Да, в чате пишут, что будет Ария, но нет.
212
00:07:08,000 --> 00:07:10,000
Ария, оставим ее для Леши.
213
00:07:10,000 --> 00:07:13,000
— Ты мне скажи, поехали или не поехали.
214
00:07:13,000 --> 00:07:16,000
— А, сейчас, подожди, я выберу, какой куплет я буду петь.
215
00:07:16,000 --> 00:07:19,000
— Да ты просто, блин, скажи поехали, я потом нарежу.
216
00:07:19,000 --> 00:07:20,000
Поехали?
217
00:07:20,000 --> 00:07:21,000
— Поехали.
218
00:07:22,000 --> 00:07:24,000
Без тебя я не я, без тебя меня нет.
219
00:07:24,000 --> 00:07:27,000
Они говорят, говорят, это бред.
220
00:07:27,000 --> 00:07:30,000
Это солнечный яд, золотые лучи.
221
00:07:30,000 --> 00:07:32,000
Они говорят, надо срочно лечить.
222
00:07:32,000 --> 00:07:35,000
Я хотела забыть до упора и вниз.
223
00:07:35,000 --> 00:07:37,000
Я считала столбы и растерянных птиц.
224
00:07:37,000 --> 00:07:40,000
Без тебя меня нет, отпусти, отпусти.
225
00:07:40,000 --> 00:07:43,000
До угла по стене, мама, папа, прости.
226
00:07:43,000 --> 00:07:45,000
Я сошла с ума, я сошла с ума.
227
00:07:45,000 --> 00:07:47,000
Она мне нужна, она мне нужна.
228
00:07:50,000 --> 00:07:53,000
— Эта песня достойна записи на кассете.
229
00:07:53,000 --> 00:07:54,000
Всем привет, привет.
230
00:07:54,000 --> 00:08:00,000
Вы слушаете 37-й выпуск лучшего музыкально-яйного подкаста
231
00:08:01,000 --> 00:08:03,000
под названием «Айаподкаст»
232
00:08:03,000 --> 00:08:08,000
и ваша постоянная ведущая, развлекательно-образовательная ведущая
233
00:08:08,000 --> 00:08:10,000
Алексей Картыник и...
234
00:08:10,000 --> 00:08:11,000
— Виктор Шленченко.
235
00:08:11,000 --> 00:08:13,000
Всем привет, привет, привет.
236
00:08:13,000 --> 00:08:14,000
— Будьте здрасте.
237
00:08:14,000 --> 00:08:17,000
Ну что, лучшие новости про яй сегодня ждут наших гостей
238
00:08:17,000 --> 00:08:19,000
после такой разминочки.
239
00:08:19,000 --> 00:08:22,000
— Ну, я бы сказал, сегодня самые лучшие.
240
00:08:22,000 --> 00:08:25,000
У нас обычно лучшие, а сегодня прям самые лучшие.
241
00:08:25,000 --> 00:08:27,000
— Конечно, мы сегодня вам расскажем и про то,
242
00:08:27,000 --> 00:08:30,000
что там, как там наклоняют OpenAI и всякие регуляторы.
243
00:08:30,000 --> 00:08:35,000
И расскажем вам про новые сеточки, которые генерируют смешные видео.
244
00:08:35,000 --> 00:08:37,000
Даже про маска мы сегодня вспомним,
245
00:08:37,000 --> 00:08:39,000
так что старые добрые новости возвращаются.
246
00:08:39,000 --> 00:08:40,000
Но перед этим...
247
00:08:40,000 --> 00:08:42,000
— И про Google чуть-чуть будет.
248
00:08:42,000 --> 00:08:43,000
— Ну, про Google.
249
00:08:43,000 --> 00:08:44,000
Куда без них?
250
00:08:44,000 --> 00:08:45,000
— Как это без Гугла, да.
251
00:08:45,000 --> 00:08:46,000
— Конечно.
252
00:08:46,000 --> 00:08:47,000
Но перед этим давай напомним,
253
00:08:47,000 --> 00:08:49,000
благодаря кому мы делаем этот замечательный подкаст.
254
00:08:50,000 --> 00:08:53,000
— Мы его делаем благодаря NGX.
255
00:08:53,000 --> 00:08:56,000
NGX — это лучшее сообщество для тех,
256
00:08:56,000 --> 00:08:59,000
кто хочет стать крутейшим инженером.
257
00:09:00,000 --> 00:09:01,000
— Все так.
258
00:09:01,000 --> 00:09:02,000
NGX.
259
00:09:02,000 --> 00:09:03,000
Наконец-то я, кстати, научился выговаривать.
260
00:09:03,000 --> 00:09:05,000
NGX, пожалуйста, плюсик мне в карму.
261
00:09:05,000 --> 00:09:08,000
Да, наши кореша из NGX, собственно,
262
00:09:08,000 --> 00:09:10,000
являются нашими главными партнерами.
263
00:09:10,000 --> 00:09:12,000
И у наших корешей из NGX есть классные вещи,
264
00:09:12,000 --> 00:09:14,000
которые вы, наши слушатели дорогие,
265
00:09:14,000 --> 00:09:17,000
можете испытать и попробовать для того,
266
00:09:17,000 --> 00:09:19,000
чтобы прокачать себя, в том числе и я.
267
00:09:19,000 --> 00:09:21,000
И, видите, расскажу, что за штуки такие.
268
00:09:21,000 --> 00:09:23,000
Помимо того, что вы все уже наверняка подписаны
269
00:09:23,000 --> 00:09:26,000
за общество NGX по ссылке, если нет, то подпишитесь,
270
00:09:26,000 --> 00:09:28,000
у ребят из NGX есть два крутейших курса,
271
00:09:28,000 --> 00:09:29,000
связанных с EI.
272
00:09:29,000 --> 00:09:32,000
Первый называется EI Support Software Engineering,
273
00:09:32,000 --> 00:09:35,000
где рассказывается всякая разная база про LLM,
274
00:09:35,000 --> 00:09:37,000
как его использовать в инженерии,
275
00:09:37,000 --> 00:09:39,000
в прочем, программировании,
276
00:09:39,000 --> 00:09:42,000
написании документации, рефакторинга и так далее.
277
00:09:42,000 --> 00:09:45,000
С упором на JavaScript, Java, Python и аж C Sharp.
278
00:09:45,000 --> 00:09:47,000
— Мой любимый.
279
00:09:47,000 --> 00:09:49,000
— Да, Лешин любимый C Sharp.
280
00:09:49,000 --> 00:09:53,000
Он бесплатный, стоит денег, 40 долларов, но того стоит.
281
00:09:53,000 --> 00:09:56,000
А второй курс вообще гораздо дешевле.
282
00:09:56,000 --> 00:09:58,000
Он называется Prompted Engineering Foundations
283
00:09:58,000 --> 00:10:02,000
и подойдет для тех, кто только входит в мир нейросетей
284
00:10:02,000 --> 00:10:05,000
и хочет научиться составлять идеальные промпты.
285
00:10:05,000 --> 00:10:07,000
— Все так, все так.
286
00:10:07,000 --> 00:10:09,000
И если про эти курсы вы уже, некоторые из вас, слышали,
287
00:10:09,000 --> 00:10:11,000
спасибо вам, если вы их попробовали.
288
00:10:11,000 --> 00:10:13,000
И вообще пройдите, пожалуйста, по каждой ссылочке
289
00:10:13,000 --> 00:10:15,000
в начале нашего подкаста.
290
00:10:15,000 --> 00:10:18,000
Это очень важно для того, чтобы наш подкаст продолжал выходить,
291
00:10:18,000 --> 00:10:21,000
для того, чтобы вы получали классное знание.
292
00:10:21,000 --> 00:10:24,000
Так вот, кроме этих курсов, у NGX появилось еще
293
00:10:24,000 --> 00:10:27,000
два замечательных направления работы.
294
00:10:27,000 --> 00:10:31,000
Эта информация уже будет полезна не обычным программистам,
295
00:10:31,000 --> 00:10:34,000
а тем, кто работает в командах и владеет командами
296
00:10:34,000 --> 00:10:36,000
либо менеджит команды.
297
00:10:36,000 --> 00:10:39,000
Потому что NGX проводит аж целые образовательные программы
298
00:10:39,000 --> 00:10:41,000
для команд.
299
00:10:41,000 --> 00:10:43,000
Одна из них называется
300
00:10:43,000 --> 00:10:46,000
GEN-AI Adoption Program for Engineering Teams.
301
00:10:46,000 --> 00:10:49,000
Именно что сказано, то и будут вам давать.
302
00:10:49,000 --> 00:10:52,000
Вам расскажут, сделают целый тренинг 12-недельный
303
00:10:52,000 --> 00:10:54,000
всей команде.
304
00:10:54,000 --> 00:10:57,000
И научат монтенить код и инженеративные AI,
305
00:10:57,000 --> 00:10:59,000
научат писать тест-кейсы с помощью AI,
306
00:10:59,000 --> 00:11:01,000
автоматизировать тестирование,
307
00:11:01,000 --> 00:11:03,000
имплементировать разнообразные API-шки AI,
308
00:11:03,000 --> 00:11:05,000
использовать все это в продуктах
309
00:11:05,000 --> 00:11:07,000
и, собственно, закручивать бизнес-логику
310
00:11:07,000 --> 00:11:10,000
ваших продуктов вокруг AI.
311
00:11:10,000 --> 00:11:12,000
То есть это уже такая прям серьезная программа
312
00:11:12,000 --> 00:11:14,000
для целых команд.
313
00:11:14,000 --> 00:11:16,000
Если нас слушают менеджеры, топ-менеджеры,
314
00:11:16,000 --> 00:11:19,000
обратите внимание, ссылка будет в описании.
315
00:11:19,000 --> 00:11:21,000
И вторая программа называется
316
00:11:21,000 --> 00:11:24,000
Navigation Team Dynamics
317
00:11:24,000 --> 00:11:27,000
от проекта под названием NGX-HI.
318
00:11:27,000 --> 00:11:30,000
Это не связанная с AI-м программа,
319
00:11:30,000 --> 00:11:32,000
но, тем не менее, она направлена на
320
00:11:32,000 --> 00:11:35,000
улучшение атмосферы в команде,
321
00:11:35,000 --> 00:11:39,000
создание коллаборативных всяческих практик
322
00:11:39,000 --> 00:11:42,000
и прививания для команды коллаборативных практик
323
00:11:42,000 --> 00:11:45,000
и, ну, собственно, сплочения команды.
324
00:11:45,000 --> 00:11:47,000
То есть если в вашей команде не хватает
325
00:11:47,000 --> 00:11:50,000
таких навыков, если вы видите, что где-то раздрай,
326
00:11:50,000 --> 00:11:52,000
может быть, у вас новая команда,
327
00:11:52,000 --> 00:11:55,000
то можете тоже пройти по ссылочке, почитать.
328
00:11:55,000 --> 00:11:58,000
Специалисты из NGX-а встраиваются к вам,
329
00:11:58,000 --> 00:12:00,000
все вам объясняют, показывают.
330
00:12:00,000 --> 00:12:03,000
Сама программа очень подробно описана,
331
00:12:03,000 --> 00:12:08,000
занимает, по-моему, около 30 часов интенсивной работы,
332
00:12:08,000 --> 00:12:12,000
5 модулей, 84 активности вас ожидает,
333
00:12:12,000 --> 00:12:14,000
так что тоже обращайте внимание.
334
00:12:14,000 --> 00:12:18,000
По всем этим ссылочкам, пожалуйста, кликните хотя бы.
335
00:12:18,000 --> 00:12:20,000
Если вам что-то не понравится,
336
00:12:20,000 --> 00:12:21,000
то поделитесь с друзьями,
337
00:12:21,000 --> 00:12:24,000
потому что мы тут вам ерунды рекомендовать не будем.
338
00:12:24,000 --> 00:12:26,000
У нас наши партнеры самые крутые партнеры.
339
00:12:26,000 --> 00:12:29,000
Точнее, один партнер у нас самый крутой.
340
00:12:29,000 --> 00:12:30,000
Можно сказать, Голд.
341
00:12:30,000 --> 00:12:32,000
Он Голд партнер, получается.
342
00:12:32,000 --> 00:12:34,000
Голд под Голд, да.
343
00:12:34,000 --> 00:12:38,000
Да, слушай, а если люди прошли по ссылкам,
344
00:12:38,000 --> 00:12:40,000
увидели прямо офигенный контент,
345
00:12:40,000 --> 00:12:42,000
поучились, получили навыки
346
00:12:42,000 --> 00:12:44,000
и не знают, где эти навыки обсудить,
347
00:12:44,000 --> 00:12:46,000
то куда им идти, расскажи?
348
00:12:46,000 --> 00:12:49,000
Ну, конечно же, нужно идти в наш чатик.
349
00:12:49,000 --> 00:12:52,000
Есть замечательный чатик Айаподкаста в Телеграме,
350
00:12:52,000 --> 00:12:56,000
в котором, между прочим, мы проводим стримы,
351
00:12:56,000 --> 00:12:58,000
и прямо сейчас идёт онлайн-стрим
352
00:12:58,000 --> 00:13:01,000
с нашими самыми лучшими подписчиками.
353
00:13:02,000 --> 00:13:04,000
С самыми лучшими подписчиками,
354
00:13:04,000 --> 00:13:06,000
которые прямо сейчас смотрят нас в онлайне.
355
00:13:06,000 --> 00:13:09,000
И несмотря на то, что до онлайна доходит немного,
356
00:13:09,000 --> 00:13:12,000
но каждого из тех, кто доходит до онлайна,
357
00:13:12,000 --> 00:13:14,000
мы любим, обожаем и стараемся отвечать.
358
00:13:14,000 --> 00:13:16,000
Там уже спрашивают, кстати, в чате у нас,
359
00:13:16,000 --> 00:13:18,000
когда же мы, Вить, перейдём на еженедельный подкаст.
360
00:13:18,000 --> 00:13:21,000
Ну, я сам этого безумно жду, Лёша.
361
00:13:21,000 --> 00:13:23,000
Да, я бы так не сказал.
362
00:13:23,000 --> 00:13:27,000
Я уже представляю, как ты меня будешь
363
00:13:27,000 --> 00:13:29,000
в кавычках «любить», когда мы с тобой будем
364
00:13:29,000 --> 00:13:31,000
не один раз в две недели по три часа заседать,
365
00:13:31,000 --> 00:13:33,000
а два раза в три часа.
366
00:13:33,000 --> 00:13:35,000
Ты же понимаешь, что то, что новостей меньше,
367
00:13:35,000 --> 00:13:38,000
вообще никак это не матчится.
368
00:13:38,000 --> 00:13:40,000
Я могу распрягать с тобой хоть вечность, Вить.
369
00:13:43,000 --> 00:13:45,000
В общем-то, да, приходите в чат,
370
00:13:45,000 --> 00:13:47,000
нас там лампово, и все новости там,
371
00:13:47,000 --> 00:13:49,000
ну, практически все, большинство новостей появляются заранее.
372
00:13:49,000 --> 00:13:51,000
Их можно обсудить, можно пообщаться.
373
00:13:51,000 --> 00:13:56,000
Можно с кайфом провести время.
374
00:13:57,000 --> 00:13:59,000
С чувством, с кайфом, с расстановкой.
375
00:14:01,000 --> 00:14:03,000
Да, ну что, поехали теперь по новостям.
376
00:14:05,000 --> 00:14:07,000
Поехали, и начнём мы, угадай, с чего?
377
00:14:07,000 --> 00:14:09,000
С твоей любимой рубрики.
378
00:14:09,000 --> 00:14:12,000
С моей любимой рубрики «Закон и порядок».
379
00:14:12,000 --> 00:14:13,000
Шучу.
380
00:14:13,000 --> 00:14:15,000
Шучу, шучу, шучу.
381
00:14:17,000 --> 00:14:20,000
Начнём мы с рубрики «Большие рыбы».
382
00:14:20,000 --> 00:14:23,000
Основная большая рыба — это кто?
383
00:14:23,000 --> 00:14:25,000
Open AI.
384
00:14:25,000 --> 00:14:27,000
Далеко ходить не надо.
385
00:14:27,000 --> 00:14:30,000
Все правильно, давай начнем с паники.
386
00:14:30,000 --> 00:14:32,000
Open AI взломали, Леша!
387
00:14:32,000 --> 00:14:34,000
Ты слышал, что Open AI взломали?
388
00:14:34,000 --> 00:14:36,000
Блин, я сразу про язык программирования подумал.
389
00:14:36,000 --> 00:14:38,000
Там в го, по-моему, паника.
390
00:14:39,000 --> 00:14:41,000
Open AI взломали, да?
391
00:14:41,000 --> 00:14:43,000
Взломали.
392
00:14:43,000 --> 00:14:45,000
Что общего между Рэббитом и Open AI?
393
00:14:45,000 --> 00:14:47,000
Того и того взломали!
394
00:14:49,000 --> 00:14:51,000
Да уж, ну, Open AI взломали давно.
395
00:14:52,000 --> 00:14:54,000
И практически можно сказать,
396
00:14:54,000 --> 00:14:56,000
что неправда, по крайней мере, по мнению Open AI,
397
00:14:56,000 --> 00:14:59,000
потому что они этот случай предпочитали замалчивать
398
00:14:59,000 --> 00:15:02,000
по той причине, что по официальной версии
399
00:15:02,000 --> 00:15:05,000
никакие данные особо не были украдены,
400
00:15:05,000 --> 00:15:07,000
кроме каких-то внутренних документов.
401
00:15:07,000 --> 00:15:09,000
В общем, взлом этот кажется странным,
402
00:15:09,000 --> 00:15:12,000
потому что лучше бы вообще не рассказывали про него.
403
00:15:12,000 --> 00:15:14,000
Ну, такое ощущение, знаешь, они пришли такие,
404
00:15:14,000 --> 00:15:16,000
ну, вообще-то нас год назад взломали,
405
00:15:16,000 --> 00:15:18,000
но вы не волнуйтесь, потому что это и злом,
406
00:15:18,000 --> 00:15:20,000
назвать странным.
407
00:15:20,000 --> 00:15:23,000
При том, что увели секретные переписки сотрудников,
408
00:15:23,000 --> 00:15:26,000
в которых обсуждались новые модели.
409
00:15:26,000 --> 00:15:29,000
Ну, как секретные? Внутренние переписки?
410
00:15:29,000 --> 00:15:31,000
Ну, секретные, внутренние.
411
00:15:31,000 --> 00:15:33,000
Ну, подожди, там новые модели обсуждали.
412
00:15:33,000 --> 00:15:35,000
И это все очень странно выглядит,
413
00:15:35,000 --> 00:15:37,000
потому что Open AI говорит, что, как бы,
414
00:15:37,000 --> 00:15:39,000
почему мы вам не рассказали про этот взлом?
415
00:15:39,000 --> 00:15:41,000
Потому что, во-первых, пользовательские данные
416
00:15:41,000 --> 00:15:43,000
не были затронуты по их заверениям,
417
00:15:43,000 --> 00:15:45,000
поэтому пользователь это не касается.
418
00:15:45,000 --> 00:15:47,000
Во-вторых, хакер, который это делал,
419
00:15:47,000 --> 00:15:49,000
не связан ни с какими другими странами,
420
00:15:49,000 --> 00:15:51,000
поэтому это не касается
421
00:15:53,000 --> 00:15:55,000
безопасности национального характера.
422
00:15:55,000 --> 00:15:56,000
И, как бы...
423
00:15:56,000 --> 00:15:58,000
Вообще, меня очень порадовала формулировка,
424
00:15:58,000 --> 00:16:01,000
что это не было угрозой национальной безопасности.
425
00:16:01,000 --> 00:16:03,000
Это значит, что может быть такой взлом Open AI,
426
00:16:03,000 --> 00:16:06,000
который будет угрозой национальной безопасности.
427
00:16:06,000 --> 00:16:08,000
Кстати, да.
428
00:16:08,000 --> 00:16:10,000
И тебя не смутило то, что компанию,
429
00:16:10,000 --> 00:16:12,000
которая взломала, приходит и говорит,
430
00:16:12,000 --> 00:16:14,000
нас не взломали, вы это, не парьтесь.
431
00:16:14,000 --> 00:16:15,000
Типа, что?
432
00:16:15,000 --> 00:16:17,000
Ну, это очень странно, да.
433
00:16:17,000 --> 00:16:19,000
Проверки какие-нибудь, если были, еще что-то.
434
00:16:19,000 --> 00:16:21,000
А так, компания пришла и сказала,
435
00:16:21,000 --> 00:16:23,000
что нас взломали, но вы не парьтесь.
436
00:16:23,000 --> 00:16:25,000
Короче, новость облетела весь интернет,
437
00:16:25,000 --> 00:16:27,000
но облетела именно в той формулировке,
438
00:16:27,000 --> 00:16:28,000
которую мы сейчас рассказали,
439
00:16:28,000 --> 00:16:30,000
без единой подробности.
440
00:16:30,000 --> 00:16:31,000
Вообще по нулям.
441
00:16:31,000 --> 00:16:33,000
Нигде нет никаких подробностей.
442
00:16:33,000 --> 00:16:35,000
То есть такого уровня взлома,
443
00:16:35,000 --> 00:16:37,000
который там, пусть был год назад,
444
00:16:37,000 --> 00:16:39,000
мне кажется, должны прям разбирать по кусочкам.
445
00:16:39,000 --> 00:16:41,000
Прям должны...
446
00:16:41,000 --> 00:16:43,000
Компании, которые занимаются DevSecOps,
447
00:16:43,000 --> 00:16:45,000
Security, всякими уязвимостями,
448
00:16:45,000 --> 00:16:47,000
должны сейчас просто OpenAI раздербанивать
449
00:16:47,000 --> 00:16:49,000
со всех сторон, но нет.
450
00:16:49,000 --> 00:16:51,000
Ну, типа, где, блин, справедливость?
451
00:16:51,000 --> 00:16:53,000
RabbitMQ, когда в своем устройстве
452
00:16:53,000 --> 00:16:55,000
случайно обнаружил уязвимость,
453
00:16:55,000 --> 00:16:57,000
что у них ключи можно стерить,
454
00:16:57,000 --> 00:16:59,000
так они целую страницу завели,
455
00:16:59,000 --> 00:17:01,000
на которой пишут каждый численный день,
456
00:17:01,000 --> 00:17:03,000
писали о том, как движется устранение этой уязвимости.
457
00:17:03,000 --> 00:17:05,000
OpenAI просто где-то на какой-то газете
458
00:17:05,000 --> 00:17:07,000
рассказал, что их взломали, и на этом все.
459
00:17:07,000 --> 00:17:09,000
Почему так?
460
00:17:09,000 --> 00:17:11,000
Ну, мне кажется, в OpenAI гораздо больше кредит доверия.
461
00:17:11,000 --> 00:17:13,000
Какой кредит доверия?
462
00:17:13,000 --> 00:17:15,000
Доферь.
463
00:17:15,000 --> 00:17:17,000
Компания.
464
00:17:17,000 --> 00:17:19,000
Которую девушку всем закроют, и все.
465
00:17:19,000 --> 00:17:21,000
Ну, у меня на самом деле
466
00:17:21,000 --> 00:17:23,000
сложились некоторые пазлы.
467
00:17:23,000 --> 00:17:25,000
Во-первых, Леопольд Ашинбреннера,
468
00:17:25,000 --> 00:17:27,000
он уже сам про это говорил, скорее всего, уволили
469
00:17:27,000 --> 00:17:29,000
как раз таки потому, что он сидел в компании
470
00:17:29,000 --> 00:17:31,000
в это время, и всем говорил, что так делать
471
00:17:31,000 --> 00:17:33,000
не надо, нас как бы взломали,
472
00:17:33,000 --> 00:17:35,000
может, давайте как-то про это подумаем.
473
00:17:35,000 --> 00:17:37,000
Тот, который книжку написал. Не книжку, а
474
00:17:37,000 --> 00:17:39,000
набор статей.
475
00:17:39,000 --> 00:17:41,000
Ну, можно называть это книжка
476
00:17:41,000 --> 00:17:43,000
Situational Awareness.
477
00:17:43,969 --> 00:17:52,969
Разбираем прям по частям, у нас вот недавно был созвон, первую часть разбирали, там есть про что подумать, если не читали, почитайте, там про будущее AGI.
478
00:17:53,969 --> 00:17:59,969
Так вот, а второй момент, ну очевидно, почему там полкан в совете директоров появился, ну все сложилось.
479
00:17:59,969 --> 00:18:01,969
Кстати, да, возможно поэтому.
480
00:18:01,969 --> 00:18:07,969
И может быть именно потому, что он там появился, эту статью так не расфорсили.
481
00:18:08,969 --> 00:18:16,969
Вообще непонятно, зачем про нее рассказали, но может быть где-то утечечка произошла, и этот генерал, бывший подполковник или как его там сказал,
482
00:18:16,969 --> 00:18:27,969
стоп, блин, я вам сказал, все, ни слова больше, мы сейчас там со своим ОНБ отделом 51 все расследуем и никому не пущу, ничего, поняли?
483
00:18:27,969 --> 00:18:29,969
Вот я думаю как-то так.
484
00:18:29,969 --> 00:18:35,969
Мне нравится, какое у тебя представление об американской системе безопасности из боевиков 90-х.
485
00:18:35,969 --> 00:18:40,969
А ты что думаешь, там демократия, да, будут сейчас все сидеть и разжевывать?
486
00:18:40,969 --> 00:18:44,969
Ну нет, конечно, блин, где так работает, нигде так система безопасности не работает.
487
00:18:44,969 --> 00:18:45,969
Ну да.
488
00:18:45,969 --> 00:18:49,969
Там еще на фоне Шварценеггер выходит с пушкой, знаешь, из горизонта.
489
00:18:49,969 --> 00:18:51,969
С квадратной базукой.
490
00:18:51,969 --> 00:18:53,969
С квадратной базукой, да, алды должны помнить.
491
00:18:53,969 --> 00:18:55,969
Да, там все должно быть.
492
00:18:55,969 --> 00:19:01,969
И сервера, и этот, Ютковский с ракетами на самолете летит и бомбит сервер на OpenAI.
493
00:19:01,969 --> 00:19:03,969
Готоцентры бомбит, да.
494
00:19:03,969 --> 00:19:04,969
Надо кино делать.
495
00:19:04,969 --> 00:19:06,969
В общем, такая вот новость.
496
00:19:06,969 --> 00:19:11,969
А тебе не кажется, что просто это какой-то действительно супер мелкий взлом?
497
00:19:11,969 --> 00:19:13,969
И что вообще рассусоливаться на эту тему?
498
00:19:13,969 --> 00:19:15,969
Ну как-то странно, что его так растиражировали.
499
00:19:15,969 --> 00:19:18,969
Я бы сделал ставку еще на то, что это просто вброс.
500
00:19:18,969 --> 00:19:22,969
Типа, знаешь, может быть там было такое, что сидят маркетологи OpenAI,
501
00:19:22,969 --> 00:19:26,969
такие, блин, ну не может быть, чтобы у нас все так гладко было.
502
00:19:26,969 --> 00:19:29,969
Ну вот сейчас начну говорить, что мы прям врем.
503
00:19:29,969 --> 00:19:32,969
Давайте сделаем хоть какой-то вброс, что мы тоже обычные люди.
504
00:19:32,969 --> 00:19:37,969
Да, думаю, что мы прям сами срежиссировали взлом или придумали его.
505
00:19:37,969 --> 00:19:39,969
Ну, как вариант.
506
00:19:39,969 --> 00:19:43,969
Я все-таки больше верю в ту версию, что утечка произошла,
507
00:19:43,969 --> 00:19:46,969
а тиражировать ее не позволило правительство.
508
00:19:46,969 --> 00:19:50,969
Потому что OpenAI все-таки уже, мне кажется, всем очевидно,
509
00:19:50,969 --> 00:19:55,969
что это компания национального уровня,
510
00:19:55,969 --> 00:20:05,969
которая является одним из, как сказать-то, ценностных факторов США.
511
00:20:05,969 --> 00:20:07,969
Пусть будет так вот.
512
00:20:07,969 --> 00:20:13,969
Недалек тот час, когда такие компании будут определять политику стран.
513
00:20:13,969 --> 00:20:17,969
Точнее, через такие компании будет определяться политика стран.
514
00:20:17,969 --> 00:20:21,969
У нас там в этике как раз будет кое-что очень близкое.
515
00:20:21,969 --> 00:20:23,969
Да, кстати, Ашин Бреннер про это много писал.
516
00:20:23,969 --> 00:20:26,969
Вы думаете, просто так OpenAI в Китае закрыл свои айпишки
517
00:20:26,969 --> 00:20:30,969
и блокирует их, когда захочет.
518
00:20:30,969 --> 00:20:34,969
Так что вот, давай дальше про OpenAI.
519
00:20:34,969 --> 00:20:36,969
Там забавная новость, конечно.
520
00:20:36,969 --> 00:20:39,969
Новость, которая сама себя уничтожила.
521
00:20:39,969 --> 00:20:42,969
Там крутая новость, да, потому что сначала сказали,
522
00:20:42,969 --> 00:20:47,969
что появится новый участник в совете директоров OpenAI,
523
00:20:47,969 --> 00:20:49,969
чувак из Apple.
524
00:20:50,969 --> 00:20:52,969
Что, Microsoft и Apple?
525
00:20:52,969 --> 00:20:57,969
Да, а как, а куда, а почему инвестиции от Microsoft, куда они делись?
526
00:20:57,969 --> 00:21:00,969
Ну, там надо сказать, что он наблюдателем должен был быть.
527
00:21:00,969 --> 00:21:02,969
То есть без права голоса.
528
00:21:02,969 --> 00:21:05,969
Без права голоса, но все равно позиция наблюдателя в совете директоров
529
00:21:05,969 --> 00:21:07,969
дает очень много прав.
530
00:21:07,969 --> 00:21:10,969
Но ты можешь пообщаться как бы с советом директоров и повлиять,
531
00:21:10,969 --> 00:21:11,969
парамонипулировать.
532
00:21:11,969 --> 00:21:13,969
Ты можешь пообщаться, повлиять.
533
00:21:13,969 --> 00:21:15,969
Ты достаточно рано узнаешь всю информацию,
534
00:21:15,969 --> 00:21:18,969
поэтому это достаточно весомая позиция.
535
00:21:18,969 --> 00:21:22,969
Но антимонопольщики американские сказали,
536
00:21:22,969 --> 00:21:24,969
вы что, офигели, что ли?
537
00:21:24,969 --> 00:21:28,969
Какой чувак из Apple в совете директоров OpenAI
538
00:21:28,969 --> 00:21:31,969
и такой же чувак из Microsoft, пускай нафиг идет.
539
00:21:33,969 --> 00:21:37,969
Потому что там был в рамках соглашения OpenAI и Microsoft
540
00:21:37,969 --> 00:21:41,969
в совете директоров OpenAI тоже был без права голоса наблюдатель
541
00:21:41,969 --> 00:21:42,969
от Microsoft.
542
00:21:42,969 --> 00:21:45,969
Вот и его тоже погнали, я извиняюсь, с санными тряпками
543
00:21:45,969 --> 00:21:47,969
американские антимонопольщики.
544
00:21:47,969 --> 00:21:50,969
Ну, еще не погнали, но это вот как раз-таки отголосочки.
545
00:21:50,969 --> 00:21:52,969
Мы, по-моему, в 34-м или 5-м выпуске уже обсуждали,
546
00:21:52,969 --> 00:21:56,969
что антимонопольщики начали присматриваться ко всем этим компаниям.
547
00:21:56,969 --> 00:21:58,969
И я так понимаю, что и Microsoft, и Apple...
548
00:21:58,969 --> 00:22:00,969
Ну, да, на них сто пудово надавили,
549
00:22:00,969 --> 00:22:03,969
потому что они буквально одновременно отказались от участия.
550
00:22:03,969 --> 00:22:05,969
Причем Microsoft прям вышел.
551
00:22:05,969 --> 00:22:08,969
И там OpenAI еще сказали, что
552
00:22:09,969 --> 00:22:12,969
Microsoft остается нашим самым ценным партнером.
553
00:22:12,969 --> 00:22:17,969
И поблагодарили заводом доверия оставшимся директорам.
554
00:22:17,969 --> 00:22:20,969
По-моему, вот мы с тобой как-то думали в каком-то из выпусков,
555
00:22:20,969 --> 00:22:24,969
как OpenAI избавится от атаков Microsoft.
556
00:22:24,969 --> 00:22:26,969
Вот оно, вот оно.
557
00:22:28,969 --> 00:22:30,969
Государство само помогает.
558
00:22:32,969 --> 00:22:33,969
Забавно, забавно.
559
00:22:33,969 --> 00:22:35,969
Прикинь, ты инвестор компании крупнейшей,
560
00:22:35,969 --> 00:22:37,969
инвестировал 10 миллиардов.
561
00:22:38,969 --> 00:22:40,969
Тебе даже, кстати, директоров посидеть нельзя, потому что...
562
00:22:40,969 --> 00:22:43,969
Да, даже просто молча посидеть, понимаешь?
563
00:22:43,969 --> 00:22:44,969
Просто молча.
564
00:22:44,969 --> 00:22:46,969
Там же без правого голоса было.
565
00:22:46,969 --> 00:22:47,969
Да, да.
566
00:22:48,969 --> 00:22:50,969
Хотел сказать слово нехорошее.
567
00:22:51,969 --> 00:22:53,969
Не надо, потом порезать придется.
568
00:22:53,969 --> 00:22:55,969
Да, думаю, все и так поняли.
569
00:22:57,969 --> 00:22:58,969
Хорошо.
570
00:22:59,969 --> 00:23:00,969
Вот.
571
00:23:00,969 --> 00:23:03,969
Что еще у нас с OpenAI случилось?
572
00:23:04,969 --> 00:23:06,969
OpenAI заключили сделку с Time.
573
00:23:06,969 --> 00:23:08,969
Самый крупнейший, наверное.
574
00:23:08,969 --> 00:23:10,969
Один из самых крупнейших архивов новостных.
575
00:23:10,969 --> 00:23:11,969
Ну и, в принципе, новостник.
576
00:23:11,969 --> 00:23:12,969
Я, кстати, не знаю.
577
00:23:12,969 --> 00:23:14,969
Time и The Time — это одно и то же, по-моему.
578
00:23:15,969 --> 00:23:17,969
Вот я настолько не шарю.
579
00:23:17,969 --> 00:23:18,969
Ну, The Time, наверное, не правильно.
580
00:23:18,969 --> 00:23:20,969
В общем, газета вот эта, Time.
581
00:23:20,969 --> 00:23:22,969
И там прикольно, потому что они по бартеру заключили сделку.
582
00:23:22,969 --> 00:23:26,969
OpenAI Time дает технологии для внедрения в свои сервисы,
583
00:23:26,969 --> 00:23:28,969
а сам получает доступ...
584
00:23:28,969 --> 00:23:30,969
Исково начать GPT.
585
00:23:30,969 --> 00:23:31,969
Типа того, да.
586
00:23:31,969 --> 00:23:34,969
А им дают доступ к столетнему архиву всех статей.
587
00:23:34,969 --> 00:23:36,969
Что мама не горюй.
588
00:23:36,969 --> 00:23:37,969
Прямо ого-го.
589
00:23:38,969 --> 00:23:40,969
Но забавная следующая новость.
590
00:23:40,969 --> 00:23:42,969
Ее можно подвязать с этим.
591
00:23:42,969 --> 00:23:45,969
Типа вот смотрите, OpenAI заключает кучу сделок.
592
00:23:45,969 --> 00:23:48,969
В OpenAI там такой весь звезда.
593
00:23:48,969 --> 00:23:51,969
И кто еще, соответственно, звездой становится?
594
00:23:51,969 --> 00:23:52,969
Конечно же, CEO OpenAI.
595
00:23:52,969 --> 00:23:53,969
Сэм Альтман.
596
00:23:54,969 --> 00:23:56,969
А что звезды делают, Вить, обычно,
597
00:23:56,969 --> 00:23:58,969
когда им звезда башку стукает?
598
00:23:58,969 --> 00:24:00,969
Ездят на крутейших тачках.
599
00:24:01,969 --> 00:24:02,969
Все так.
600
00:24:02,969 --> 00:24:04,969
Сэма Альтмана застукали.
601
00:24:04,969 --> 00:24:06,969
Как он ехал.
602
00:24:06,969 --> 00:24:08,969
Прямо зло ехал.
603
00:24:08,969 --> 00:24:10,969
На тачке под названием
604
00:24:10,969 --> 00:24:12,969
Koenigsegg Regera.
605
00:24:12,969 --> 00:24:13,969
Koenigsegg.
606
00:24:13,969 --> 00:24:15,969
Koenigsegg.
607
00:24:15,969 --> 00:24:16,969
Koenigsegg.
608
00:24:16,969 --> 00:24:18,969
Koenigsegg, простите.
609
00:24:18,969 --> 00:24:20,969
Почему я плохо выговариваю название этой машины, Вить?
610
00:24:20,969 --> 00:24:21,969
Знаешь почему?
611
00:24:22,969 --> 00:24:25,969
Потому что ты учил английский в школе.
612
00:24:25,969 --> 00:24:26,969
Нет.
613
00:24:26,969 --> 00:24:27,969
Потому что этих машин...
614
00:24:27,969 --> 00:24:29,969
Это машины, которые штучного производства.
615
00:24:29,969 --> 00:24:31,969
Их выпускают серийно
616
00:24:31,969 --> 00:24:33,969
буквально по десятку штук
617
00:24:33,969 --> 00:24:35,969
для супербогатейших
618
00:24:35,969 --> 00:24:37,969
миллиардеров нашего мира.
619
00:24:37,969 --> 00:24:39,969
И вот на такой тачке
620
00:24:39,969 --> 00:24:40,969
застукали Альтмана.
621
00:24:40,969 --> 00:24:41,969
Если что, у него Regera.
622
00:24:41,969 --> 00:24:42,969
Я посмотрел в интернете,
623
00:24:42,969 --> 00:24:43,969
когда выпускались Regera.
624
00:24:43,969 --> 00:24:45,969
С 16 по 22 год.
625
00:24:45,969 --> 00:24:47,969
85 штук их выпустили.
626
00:24:47,969 --> 00:24:48,969
Они все раскуплены.
627
00:24:48,969 --> 00:24:50,969
Сейчас продавались они
628
00:24:50,969 --> 00:24:51,969
по миллиону долларов.
629
00:24:51,969 --> 00:24:53,969
Последнюю Regera на аукционе
630
00:24:53,969 --> 00:24:55,969
продали примерно за 6 миллионов долларов.
631
00:24:55,969 --> 00:24:56,969
Угу.
632
00:24:57,969 --> 00:24:58,969
Ну, слушай,
633
00:24:58,969 --> 00:25:00,969
что вот мы на человека наговариваем?
634
00:25:00,969 --> 00:25:02,969
А может, он в каршеринге взял?
635
00:25:02,969 --> 00:25:04,969
Да-да, или другу хотел погонять, да?
636
00:25:04,969 --> 00:25:06,969
Есть каршеринг для миллиардеров.
637
00:25:06,969 --> 00:25:07,969
Каршеринг для миллиардеров.
638
00:25:07,969 --> 00:25:09,969
Ты вставишь приложение, да, и...
639
00:25:09,969 --> 00:25:11,969
Но вы посмотрите этот видос.
640
00:25:11,969 --> 00:25:13,969
Ты не посмотрел этот видос?
641
00:25:13,969 --> 00:25:14,969
Я посмотрел этот видос, да.
642
00:25:14,969 --> 00:25:15,969
Но это же смешно.
643
00:25:15,969 --> 00:25:17,969
Он там реально такой, типа,
644
00:25:17,969 --> 00:25:19,969
я вас не знаю, идите.
645
00:25:19,969 --> 00:25:21,969
Не мешает.
646
00:25:23,969 --> 00:25:25,969
Нет, ну а что прицепились к человеку?
647
00:25:25,969 --> 00:25:27,969
Ну, богатый человек, ну и что?
648
00:25:27,969 --> 00:25:29,969
Ну, смотри, там чел просто на улице идет
649
00:25:29,969 --> 00:25:31,969
и на телефон снимает Альтмана в машине.
650
00:25:31,969 --> 00:25:33,969
Ну, это же нормально,
651
00:25:33,969 --> 00:25:34,969
когда, ну, ладно.
652
00:25:34,969 --> 00:25:36,969
Ну, не знаю, я бы так, наверное,
653
00:25:36,969 --> 00:25:37,969
не реагировал, если бы меня на телефон.
654
00:25:37,969 --> 00:25:39,969
Хотя, ну, он суперзвезда.
655
00:25:39,969 --> 00:25:41,969
Ну, это логично, что я буду снимать.
656
00:25:41,969 --> 00:25:43,969
Ну, мог бы махать ручкой хотя бы
657
00:25:43,969 --> 00:25:44,969
из машины, улыбнуться.
658
00:25:44,969 --> 00:25:46,969
А так он еще выглядел так, будто бы
659
00:25:46,969 --> 00:25:48,969
он как-то совсем плохо выглядел.
660
00:25:48,969 --> 00:25:50,969
Странно.
661
00:25:50,969 --> 00:25:52,969
Ну, в общем, Сэм Альтман, блин.
662
00:25:52,969 --> 00:25:54,969
Сэм Альтман, у вас в компании надо
663
00:25:54,969 --> 00:25:56,969
деньги Майкрософту отдавать, а ты на этих,
664
00:25:56,969 --> 00:25:58,969
на Реджерах каршеринговых ездишь.
665
00:25:58,969 --> 00:25:59,969
Ну, ты шо? Не надо.
666
00:25:59,969 --> 00:26:01,969
Майкрософту же все выгнали.
667
00:26:01,969 --> 00:26:02,969
Угу.
668
00:26:02,969 --> 00:26:03,969
Из совета директоров.
669
00:26:03,969 --> 00:26:05,969
Хотя, деньги вернуть все равно придется.
670
00:26:05,969 --> 00:26:07,969
Ну, посмотрим, что дальше будет.
671
00:26:09,969 --> 00:26:11,969
Кстати, фотку эту видел,
672
00:26:11,969 --> 00:26:13,969
скидывал в наш сценарий.
673
00:26:13,969 --> 00:26:15,969
И Сэм Альтман в машине,
674
00:26:15,969 --> 00:26:17,969
и чувак в машине из сериала.
675
00:26:18,969 --> 00:26:20,969
Академия Амбрелла.
676
00:26:20,969 --> 00:26:21,969
Академия Амбрелла, да.
677
00:26:21,969 --> 00:26:23,969
Вот этот мальчик, который в детском теле
678
00:26:23,969 --> 00:26:24,969
взрослый, суперумный.
679
00:26:24,969 --> 00:26:25,969
Да, да, да.
680
00:26:25,969 --> 00:26:26,969
Очень похоже.
681
00:26:26,969 --> 00:26:27,969
Мем такой.
682
00:26:27,969 --> 00:26:28,969
Да.
683
00:26:28,969 --> 00:26:29,969
Мем?
684
00:26:30,969 --> 00:26:31,969
Какой?
685
00:26:31,969 --> 00:26:33,969
Ну, мем, где мальчик этот в машине едет,
686
00:26:33,969 --> 00:26:35,969
всматривается.
687
00:26:35,969 --> 00:26:36,969
Да?
688
00:26:36,969 --> 00:26:37,969
Да, да, да.
689
00:26:39,969 --> 00:26:40,969
Окей.
690
00:26:40,969 --> 00:26:43,969
И сразу же после разговоров
691
00:26:43,969 --> 00:26:45,969
про крутую тачку из Сэма Альтмана,
692
00:26:45,969 --> 00:26:46,969
можно поговорить про то,
693
00:26:46,969 --> 00:26:48,969
сколько таки зарабатывает OpenAI?
694
00:26:48,969 --> 00:26:49,969
Угу.
695
00:26:51,969 --> 00:26:54,969
Ревенью в 3-4 миллиарда.
696
00:26:56,969 --> 00:26:58,969
3-4 миллиарда в год, получается, да?
697
00:26:58,969 --> 00:26:59,969
Да, да, да.
698
00:27:01,969 --> 00:27:04,969
Ну, может себе позволить, получается, я считаю.
699
00:27:04,969 --> 00:27:05,969
Получается, одну тысячную.
700
00:27:05,969 --> 00:27:07,969
Забрал тачку себе купил, да?
701
00:27:07,969 --> 00:27:08,969
Да.
702
00:27:08,969 --> 00:27:09,969
Ну, если купил.
703
00:27:09,969 --> 00:27:10,969
Такую тачку.
704
00:27:10,969 --> 00:27:12,969
Это там, короче, сделали независимый подсчет
705
00:27:12,969 --> 00:27:14,969
заработка OpenAI по косвенным данным.
706
00:27:14,969 --> 00:27:15,969
Угу.
707
00:27:15,969 --> 00:27:16,969
Одна из компаний.
708
00:27:16,969 --> 00:27:19,969
И там забавная цифра, на самом деле.
709
00:27:19,969 --> 00:27:21,969
То, что 3-4 миллиарда в год, это ладно.
710
00:27:21,969 --> 00:27:23,969
По ним сложно оценивать.
711
00:27:24,969 --> 00:27:26,969
Но вот то, что у них основной заработок
712
00:27:26,969 --> 00:27:28,969
с пользователей GPT+.
713
00:27:28,969 --> 00:27:30,969
Не САПи, не САПи,
714
00:27:30,969 --> 00:27:32,969
а с подписок 55%.
715
00:27:32,969 --> 00:27:33,969
Не САПи, не САПи.
716
00:27:33,969 --> 00:27:36,969
Ревенью это подписки на GPT+.
717
00:27:38,969 --> 00:27:40,969
Причем, более того,
718
00:27:41,969 --> 00:27:44,969
всего около 8 миллионов пользователей
719
00:27:44,969 --> 00:27:46,969
генерируют эту прибыль.
720
00:27:46,969 --> 00:27:49,969
То есть, из 8 миллиардов, 8 миллионов.
721
00:27:49,969 --> 00:27:52,969
Это значит, что очень есть куда расти.
722
00:27:54,969 --> 00:27:55,969
Мне кажется.
723
00:27:55,969 --> 00:27:56,969
Еще как.
724
00:27:56,969 --> 00:27:58,969
То есть, развиваться есть куда.
725
00:27:58,969 --> 00:28:00,969
Ну и да, 55% мы с вами,
726
00:28:00,969 --> 00:28:02,969
у самого Альтмана, на его
727
00:28:02,969 --> 00:28:03,969
красивые листы.
728
00:28:03,969 --> 00:28:04,969
Скинулись, да, на его Koenigsegg.
729
00:28:04,969 --> 00:28:05,969
За скидку.
730
00:28:05,969 --> 00:28:06,969
Koenigsegg.
731
00:28:07,969 --> 00:28:08,969
Керби.
732
00:28:08,969 --> 00:28:09,969
Керби, фирби, да.
733
00:28:09,969 --> 00:28:10,969
Загонатели.
734
00:28:10,969 --> 00:28:11,969
Фирби.
735
00:28:11,969 --> 00:28:13,969
21% они зарабатывают
736
00:28:13,969 --> 00:28:15,969
с ChatGPT Enterprise,
737
00:28:15,969 --> 00:28:17,969
то есть, бизнесом продают.
738
00:28:17,969 --> 00:28:18,969
И вот это странно тоже,
739
00:28:18,969 --> 00:28:20,969
потому что они так пиарились.
740
00:28:20,969 --> 00:28:22,969
Везде этот ChatGPT в эйзюрах,
741
00:28:22,969 --> 00:28:24,969
точнее, GPT в эйзюрах,
742
00:28:24,969 --> 00:28:26,969
в углах, везде он сидит,
743
00:28:26,969 --> 00:28:28,969
а генерируют всего лишь 21% прибыли.
744
00:28:28,969 --> 00:28:31,969
Примерно 1-2 миллиона долларов.
745
00:28:31,969 --> 00:28:33,969
Я вообще думал, что основные статьи дохода
746
00:28:33,969 --> 00:28:36,969
будут как раз не подписка,
747
00:28:36,969 --> 00:28:39,969
а API и вот эти вот Enterprise истории.
748
00:28:39,969 --> 00:28:40,969
Но нет.
749
00:28:40,969 --> 00:28:42,969
Нифига подобного.
750
00:28:42,969 --> 00:28:43,969
Я тоже думал, что Enterprise,
751
00:28:43,969 --> 00:28:44,969
потом API, а потом подписка.
752
00:28:44,969 --> 00:28:45,969
Оказалось, что наоборот.
753
00:28:45,969 --> 00:28:47,969
Подписка — 21%,
754
00:28:47,969 --> 00:28:48,969
Enterprise — 15%,
755
00:28:48,969 --> 00:28:50,969
API — и 8%.
756
00:28:50,969 --> 00:28:51,969
Что меня тоже удивило,
757
00:28:51,969 --> 00:28:53,969
это GPT Team внезапно.
758
00:28:53,969 --> 00:28:55,969
Потому что я Team пользовался,
759
00:28:55,969 --> 00:28:57,969
я не понял юскейса вообще
760
00:28:57,969 --> 00:28:58,969
этой подписки,
761
00:28:58,969 --> 00:28:59,969
когда ты просто покупаешь
762
00:28:59,969 --> 00:29:00,969
дополнительные доступы
763
00:29:00,969 --> 00:29:02,969
для людей в команде,
764
00:29:02,969 --> 00:29:03,969
и у вас там практически
765
00:29:03,969 --> 00:29:04,969
ничего командного нет.
766
00:29:04,969 --> 00:29:06,969
Тем не менее, эта штука генерирует
767
00:29:06,969 --> 00:29:08,969
290 миллионов.
768
00:29:08,969 --> 00:29:10,969
Ну, там, наверное,
769
00:29:10,969 --> 00:29:11,969
это аппроксимировали,
770
00:29:11,969 --> 00:29:13,969
потому что Team-то появился
771
00:29:13,969 --> 00:29:15,969
относительно недавно.
772
00:29:15,969 --> 00:29:17,969
Короче, странно это все.
773
00:29:17,969 --> 00:29:19,969
Странно.
774
00:29:19,969 --> 00:29:21,969
980 тысяч чуваков
775
00:29:21,969 --> 00:29:23,969
в Team сидят в подписке.
776
00:29:23,969 --> 00:29:25,969
Кто эти люди?
777
00:29:25,969 --> 00:29:27,969
Может, случайно нажали.
778
00:29:27,969 --> 00:29:29,969
Хотя...
779
00:29:29,969 --> 00:29:32,969
Там можно промахнуться.
780
00:29:32,969 --> 00:29:34,969
Короче, вот такая история.
781
00:29:34,969 --> 00:29:36,969
И совершенно понятно,
782
00:29:36,969 --> 00:29:38,969
откуда у дорогого Сэма
783
00:29:38,969 --> 00:29:40,969
деньги на дорогую тачку.
784
00:29:40,969 --> 00:29:42,969
А может быть, это не Сэм
785
00:29:42,969 --> 00:29:43,969
на дорогой тачке ездит?
786
00:29:43,969 --> 00:29:45,969
Может, это его сгенерили?
787
00:29:45,969 --> 00:29:47,969
Думаешь?
788
00:29:47,969 --> 00:29:49,969
В физическом мире?
789
00:29:49,969 --> 00:29:50,969
В смысле?
790
00:29:50,969 --> 00:29:51,969
Ну, просто взяли,
791
00:29:51,969 --> 00:29:52,969
ссоры сгенерили, и все.
792
00:29:52,969 --> 00:29:54,969
Сэм Альтман ездит в той машине.
793
00:29:54,969 --> 00:29:56,969
Нет, а там слишком плохое видео
794
00:29:56,969 --> 00:29:58,969
для генерации.
795
00:29:58,969 --> 00:30:00,969
Мне кажется, пока что
796
00:30:00,969 --> 00:30:02,969
Сора так не умеет.
797
00:30:02,969 --> 00:30:04,969
Сора слишком хорошие видосы делает,
798
00:30:04,969 --> 00:30:06,969
судя по примерам.
799
00:30:06,969 --> 00:30:08,969
Ладно, хватит с OpenAI, да?
800
00:30:08,969 --> 00:30:10,969
Ладно, да.
801
00:30:10,969 --> 00:30:12,969
Но у нас пока что все будет про бабки.
802
00:30:12,969 --> 00:30:14,969
Мы продолжим разговор
803
00:30:14,969 --> 00:30:16,969
с компанией,
804
00:30:16,969 --> 00:30:17,969
с еще одной большой рыбой,
805
00:30:17,969 --> 00:30:19,969
компанией Stability.ai.
806
00:30:19,969 --> 00:30:21,969
Stability.ai наняли себе
807
00:30:21,969 --> 00:30:23,969
нового директора,
808
00:30:23,969 --> 00:30:25,969
которого, видимо, есть калькулятор.
809
00:30:25,969 --> 00:30:27,969
Судя по
810
00:30:27,969 --> 00:30:29,969
новости.
811
00:30:30,969 --> 00:30:32,969
Может, чувак понял, что...
812
00:30:32,969 --> 00:30:34,969
Может, он просто этим айпадом пользуется, и там
813
00:30:34,969 --> 00:30:36,969
новый калькулятор вышел.
814
00:30:36,969 --> 00:30:38,969
А, да, он МЭС, да, написал, там,
815
00:30:38,969 --> 00:30:40,969
с Тилусом. Короче,
816
00:30:40,969 --> 00:30:42,969
чуваки поняли, что на опенсорсе
817
00:30:42,969 --> 00:30:44,969
видимо, особо не заработаешь,
818
00:30:44,969 --> 00:30:46,969
поэтому теперь Stable Diffusion 3,
819
00:30:46,969 --> 00:30:48,969
который будет
820
00:30:48,969 --> 00:30:50,969
использоваться в бизнесах с
821
00:30:50,969 --> 00:30:52,969
ревенью больше миллиона баксов,
822
00:30:52,969 --> 00:30:54,969
на него нужно будет покупать лицензию.
823
00:30:54,969 --> 00:30:56,969
Да, это
824
00:30:56,969 --> 00:30:58,969
кажется...
825
00:30:59,969 --> 00:31:01,969
Кстати, да,
826
00:31:01,969 --> 00:31:03,969
ты прям хорошо заметил, с Ламой у нас
827
00:31:03,969 --> 00:31:05,969
точно такая же модель. Он тоже
828
00:31:05,969 --> 00:31:07,969
от ревенью считается, когда лицензия нужна будет.
829
00:31:07,969 --> 00:31:09,969
В принципе, ожидаемо.
830
00:31:09,969 --> 00:31:11,969
Просто странно даже, что они так
831
00:31:11,969 --> 00:31:13,969
долго тянулись тем, чтобы сделать
832
00:31:13,969 --> 00:31:15,969
свою мощнейшую модель платной для коммерческого
833
00:31:15,969 --> 00:31:17,969
использования. А один миллион ревенью в год
834
00:31:17,969 --> 00:31:19,969
так-то это...
835
00:31:19,969 --> 00:31:21,969
Это такой...
836
00:31:21,969 --> 00:31:23,969
Малый интерес средний бизнес. Это не то, чтобы прям много.
837
00:31:25,969 --> 00:31:27,969
Да, это же даже
838
00:31:27,969 --> 00:31:29,969
доход, это выручка.
839
00:31:31,969 --> 00:31:33,969
И причем они не говорят, сколько
840
00:31:33,969 --> 00:31:35,969
надо будет платить, какой-то там процент
841
00:31:35,969 --> 00:31:37,969
или нет. Они говорят, что просто, если у вас
842
00:31:37,969 --> 00:31:39,969
больше ревенью, вы нам напишите.
843
00:31:39,969 --> 00:31:41,969
Мы там разберемся.
844
00:31:43,969 --> 00:31:45,969
Мы там в калькуляторе посчитаемся.
845
00:31:47,969 --> 00:31:49,969
Да, ну вот, теперь...
846
00:31:49,969 --> 00:31:51,969
Ну, ладно. Я, в принципе,
847
00:31:51,969 --> 00:31:53,969
на своем компе Stable Diffusion 3 запустить
848
00:31:53,969 --> 00:31:55,969
не так не мог. А если бы смог, конечно,
849
00:31:55,969 --> 00:31:57,969
у меня было бы больше миллиона ревенью.
850
00:31:57,969 --> 00:31:59,969
Я абсолютно в этом уверен.
851
00:31:59,969 --> 00:32:01,969
Будем надеяться,
852
00:32:01,969 --> 00:32:03,969
что это поможет компании выжить.
853
00:32:05,969 --> 00:32:07,969
Ну, вообще, да. Мы туржем
854
00:32:07,969 --> 00:32:09,969
над стабилитей
855
00:32:09,969 --> 00:32:11,969
и над тем, что они такие нестабильные.
856
00:32:11,969 --> 00:32:13,969
Но, честно говоря,
857
00:32:13,969 --> 00:32:15,969
будет грустно, если они закроются.
858
00:32:15,969 --> 00:32:17,969
Ну, слушай, они же на подписках
859
00:32:17,969 --> 00:32:19,969
пытались зарабатывать. У них же есть там подписка
860
00:32:19,969 --> 00:32:21,969
и какая-то даже опишка у них есть.
861
00:32:21,969 --> 00:32:23,969
Да, подписки до сих пор есть.
862
00:32:23,969 --> 00:32:25,969
Так что, ну, видимо,
863
00:32:25,969 --> 00:32:27,969
не сходится. Вообще, у нас будет
864
00:32:27,969 --> 00:32:29,969
в конце выйти статья про то, что это все
865
00:32:29,969 --> 00:32:31,969
большой пузырь вокруг ИАЯ.
866
00:32:31,969 --> 00:32:33,969
Там прям будет очень хорошо понятно,
867
00:32:33,969 --> 00:32:35,969
что не все так хорошо и OpenAI.
868
00:32:35,969 --> 00:32:37,969
И, может быть,
869
00:32:37,969 --> 00:32:39,969
может так оказаться, что
870
00:32:39,969 --> 00:32:41,969
OpenAI
871
00:32:41,969 --> 00:32:43,969
делает сильно неправильно,
872
00:32:43,969 --> 00:32:45,969
в отличие от Stability AI. То есть Stability AI
873
00:32:45,969 --> 00:32:47,969
очевидно пытаются выйти в ноль.
874
00:32:47,969 --> 00:32:49,969
А там какие-нибудь крупные игроки, типа
875
00:32:49,969 --> 00:32:51,969
OpenAI, Anthropica, они, в принципе, пока что
876
00:32:51,969 --> 00:32:53,969
просто набирают пользовательскую базу.
877
00:32:53,969 --> 00:32:55,969
Поехали дальше?
878
00:32:55,969 --> 00:32:57,969
Поехали, поехали
879
00:32:57,969 --> 00:32:59,969
дальше. Да, у нас дальше Google.
880
00:32:59,969 --> 00:33:01,969
Google,
881
00:33:01,969 --> 00:33:03,969
более того, Google DeepMind.
882
00:33:03,969 --> 00:33:05,969
Угу.
883
00:33:05,969 --> 00:33:07,969
Та часть Google, над которой мы
884
00:33:07,969 --> 00:33:09,969
стараемся не ржать.
885
00:33:09,969 --> 00:33:11,969
Мы бы даже, если бы хотели, у нас бы
886
00:33:11,969 --> 00:33:13,969
навряд ли получилось.
887
00:33:13,969 --> 00:33:15,969
Но в этот раз они сделали нелую штуку.
888
00:33:17,969 --> 00:33:19,969
Короче,
889
00:33:19,969 --> 00:33:21,969
сделали, ребята.
890
00:33:21,969 --> 00:33:23,969
Короче, взяли свою G-mini
891
00:33:23,969 --> 00:33:25,969
полторашку,
892
00:33:25,969 --> 00:33:27,969
моцную.
893
00:33:27,969 --> 00:33:29,969
Кто понял, тот понял.
894
00:33:29,969 --> 00:33:31,969
И
895
00:33:31,969 --> 00:33:33,969
присобачили туда
896
00:33:33,969 --> 00:33:35,969
систему Mobility Vision
897
00:33:35,969 --> 00:33:37,969
Language Analyze.
898
00:33:37,969 --> 00:33:39,969
И так вот
899
00:33:39,969 --> 00:33:41,969
контекст у G-mini полторашки прям
900
00:33:41,969 --> 00:33:43,969
очень здоровенный. Туда
901
00:33:43,969 --> 00:33:45,969
все данные с вот этой Mobility VLA
902
00:33:45,969 --> 00:33:47,969
помещаются. В общем,
903
00:33:47,969 --> 00:33:49,969
все получилось. Строили это все в робота.
904
00:33:49,969 --> 00:33:51,969
Смешного, кстати, робота. Можете посмотреть
905
00:33:51,969 --> 00:33:53,969
по ссылке.
906
00:33:53,969 --> 00:33:55,969
Как будто бы его сделали из
907
00:33:55,969 --> 00:33:57,969
технических...
908
00:33:57,969 --> 00:33:59,969
И этому роботу просто провели
909
00:33:59,969 --> 00:34:01,969
экскурсию по офису.
910
00:34:01,969 --> 00:34:03,969
Ходил человек, прям голосом рассказывал,
911
00:34:03,969 --> 00:34:05,969
что, где находится, в какой комнате.
912
00:34:05,969 --> 00:34:07,969
Этот робот это все анализировал, загружал
913
00:34:07,969 --> 00:34:09,969
в G-mini и после одной экскурсии
914
00:34:09,969 --> 00:34:11,969
полноценно мог сам кататься,
915
00:34:11,969 --> 00:34:13,969
анализировать все вокруг. Короче,
916
00:34:13,969 --> 00:34:15,969
сделали
917
00:34:15,969 --> 00:34:17,969
систему навигации для
918
00:34:17,969 --> 00:34:19,969
бедных.
919
00:34:19,969 --> 00:34:21,969
Для бедных. Не очень-то для бедных.
920
00:34:23,969 --> 00:34:25,969
Я думаю, такая штука стоит
921
00:34:25,969 --> 00:34:27,969
много денег сейчас.
922
00:34:27,969 --> 00:34:29,969
Выглядит хорошо.
923
00:34:29,969 --> 00:34:31,969
DeepMind молодцы.
924
00:34:31,969 --> 00:34:33,969
Вперед. Я такого робота
925
00:34:33,969 --> 00:34:35,969
себе покупать не буду. Ты будешь покупать себе
926
00:34:35,969 --> 00:34:37,969
такого робота? Не, я пока
927
00:34:37,969 --> 00:34:39,969
подожду следующей версии, Леш.
928
00:34:39,969 --> 00:34:41,969
Ну, хорошо. Но выглядит он
929
00:34:41,969 --> 00:34:43,969
как ездящая тентакля.
930
00:34:43,969 --> 00:34:45,969
Да.
931
00:34:45,969 --> 00:34:47,969
У нас там еще будет новость
932
00:34:47,969 --> 00:34:49,969
про опенсорсного робота, ребят, для тех,
933
00:34:49,969 --> 00:34:51,969
кто не хочет покупать робота
934
00:34:51,969 --> 00:34:53,969
от DeepMind, который пока, собственно говоря,
935
00:34:53,969 --> 00:34:55,969
и не продается.
936
00:34:55,969 --> 00:34:57,969
Да. А еще уже не DeepMind,
937
00:34:57,969 --> 00:34:59,969
а просто Google начал раскатывать
938
00:34:59,969 --> 00:35:01,969
бета-версию нового Хрома, в которой
939
00:35:01,969 --> 00:35:03,969
встроена G-mini Nano. Прям можно
940
00:35:03,969 --> 00:35:05,969
из консоли
941
00:35:05,969 --> 00:35:07,969
эту G-mini Nano использовать,
942
00:35:07,969 --> 00:35:09,969
а можно даже не из консоли, можно даже
943
00:35:09,969 --> 00:35:11,969
какие-то приложеньки там прям в консоли
944
00:35:11,969 --> 00:35:13,969
написать.
945
00:35:13,969 --> 00:35:15,969
В общем-то, работает она локально.
946
00:35:15,969 --> 00:35:17,969
И надо сказать, работает хорошо.
947
00:35:17,969 --> 00:35:19,969
G-mini Nano, хоть самая маленькая модель,
948
00:35:19,969 --> 00:35:21,969
но отрабатывает прям неплохо.
949
00:35:21,969 --> 00:35:23,969
Так что вот он уже.
950
00:35:23,969 --> 00:35:25,969
Я посмотрел, как проверяют.
951
00:35:26,949 --> 00:35:28,949
Я не сильно большой любитель хрома.
952
00:35:33,949 --> 00:35:36,949
Алё, чё прикольного, говорю? Чё ты завис?
953
00:35:37,949 --> 00:35:40,949
А ты у меня тоже был такой, ты мне сказал, чё там за риск?
954
00:35:40,949 --> 00:35:43,949
Да ё-моё, блин, что с интернетом у тебя?
955
00:35:44,949 --> 00:35:47,949
У меня 4G, самый замечательный интернет в мире.
956
00:35:49,949 --> 00:35:50,949
Orange, я полагаю.
957
00:35:50,949 --> 00:35:56,949
Ну чё прикольного? У тебя локально вообще без всяких танцев с бубном запускается ЛМ-ка,
958
00:35:56,949 --> 00:35:59,949
которая может тебе там поотвечать про столицы мира, поговорить с тобой,
959
00:35:59,949 --> 00:36:01,949
может даже где-то код немножко поправить.
960
00:36:01,949 --> 00:36:03,949
Всё это работает локально в оффлайне.
961
00:36:04,949 --> 00:36:07,949
Как это использовать, прям пока непонятно.
962
00:36:07,949 --> 00:36:12,949
Наверняка мы в каких-то новых версиях хрома увидим какие-нибудь саморезаторы на Gemini Nano.
963
00:36:13,949 --> 00:36:14,949
Но в принципе прикольно.
964
00:36:15,949 --> 00:36:18,949
Прикольно, что в продуктах появляются ЛМ-ки, работающие локально,
965
00:36:18,949 --> 00:36:21,949
и которые могут запускаться чуть ли не на утюге.
966
00:36:23,949 --> 00:36:24,949
Вот такой вывод.
967
00:36:24,949 --> 00:36:29,949
Ну, я думаю, что... Как думаешь, дождёмся мы в ближайшем будущем ЛМ-ок на утюге?
968
00:36:30,949 --> 00:36:33,949
Да, конечно, как же утюг без ЛМ-ки? Ты что?
969
00:36:34,949 --> 00:36:36,949
Разговаривать с утюгом же надо.
970
00:36:36,949 --> 00:36:38,949
Зачем эти колёсики? Я вообще не понимаю.
971
00:36:38,949 --> 00:36:40,949
Эти колёсики в утюгах — это ад.
972
00:36:40,949 --> 00:36:44,949
Вот для меня это ад, потому что там постоянно просто какие-то точечки,
973
00:36:44,949 --> 00:36:47,949
какие-то циферки, на одежде какие-то циферки.
974
00:36:47,949 --> 00:36:49,949
Я никогда не понимаю, как это надо крутить.
975
00:36:49,949 --> 00:36:53,949
Когда у меня вот эта колёсика случайно рукой задевается и скручивается, у меня паника.
976
00:36:54,949 --> 00:36:57,949
Не от того, чтобы ему камеру и Vision-модель, которая будет смотреть на штаны,
977
00:36:57,949 --> 00:36:59,949
и сама включать эту температуру.
978
00:36:59,949 --> 00:37:00,949
Конечно.
979
00:37:00,949 --> 00:37:03,949
Если ему что-то непонятно, он посмотрел и говорит, что-то я не понял.
980
00:37:03,949 --> 00:37:04,949
Переверни на обратную сторону.
981
00:37:04,949 --> 00:37:06,949
Преворачиваешь, говоришь, так, нормально?
982
00:37:06,949 --> 00:37:07,949
Он тебе говорит, да, нормально.
983
00:37:07,949 --> 00:37:08,949
Всё, считал, погнали.
984
00:37:09,949 --> 00:37:11,949
По-моему, в утюгах это самое...
985
00:37:12,949 --> 00:37:17,949
Ты никогда не оставишь его включённым, потому что он будет сам включаться.
986
00:37:17,949 --> 00:37:20,949
А если ты будешь плохо себя вести, то и сам включаться.
987
00:37:20,949 --> 00:37:24,949
Да, кстати, компания Rabbit, если вы хотите ещё денег заработать побольше,
988
00:37:24,949 --> 00:37:27,949
то можете выпустить утюги в партнёрстве с T-Nation Engineering,
989
00:37:27,949 --> 00:37:29,949
я вам даже занесу денег за это.
990
00:37:29,949 --> 00:37:30,949
Лёша купит.
991
00:37:30,949 --> 00:37:31,949
Я куплю.
992
00:37:35,949 --> 00:37:38,949
Да, ну, как-то так с Google.
993
00:37:41,949 --> 00:37:42,949
Так, что у нас ещё?
994
00:37:42,949 --> 00:37:44,949
Дальше у нас Amazon.
995
00:37:46,949 --> 00:37:48,949
Amazon у нас редкий гость, так сказать.
996
00:37:49,949 --> 00:37:51,949
Да, редкий гость, но рыба-то большая,
997
00:37:51,949 --> 00:37:54,949
и у нас написано в сценарии, что он хочет ворваться в айгонку,
998
00:37:54,949 --> 00:37:57,949
хотя на самом деле Amazon давно в айгонке.
999
00:37:57,949 --> 00:37:58,949
Да?
1000
00:37:58,949 --> 00:38:00,949
Со своим, как минимум, бедроком.
1001
00:38:00,949 --> 00:38:01,949
Точно?
1002
00:38:01,949 --> 00:38:03,949
Который мы давно видели, присутствует, да.
1003
00:38:04,949 --> 00:38:09,949
Но в чём особенность бедрока в том, что там особо не было своих моделей от Amazon,
1004
00:38:09,949 --> 00:38:10,949
насколько я помню.
1005
00:38:10,949 --> 00:38:13,949
Они в основном предоставляли доступ ко всяким ламам там и прочее.
1006
00:38:14,949 --> 00:38:17,949
Ну там было несколько, но какие-то совсем тестовые, непонятно их ли.
1007
00:38:18,949 --> 00:38:20,949
Да, особо их не использовали.
1008
00:38:20,949 --> 00:38:27,949
А сейчас ребята говорят, что работают над собственной мультимодалкой под названием Metis.
1009
00:38:28,949 --> 00:38:29,949
Такое себе название.
1010
00:38:29,949 --> 00:38:33,949
У нас в деревне метисами называли вот таких, смугленьких, как я.
1011
00:38:35,949 --> 00:38:37,949
Ну да, это и есть метис, как бы.
1012
00:38:37,949 --> 00:38:38,949
Да? Ну ладно.
1013
00:38:40,949 --> 00:38:43,949
Ну рассказывай, что там за метис такой, мультимодальный.
1014
00:38:46,949 --> 00:38:49,949
Мультимодальная модель, но по сути конкурент GPZ 4.0,
1015
00:38:50,949 --> 00:38:55,949
плюс обещают ещё возможность рага туда впикнуть,
1016
00:38:55,949 --> 00:39:01,949
для того чтобы можно было модельку подстраивать под свои нужды.
1017
00:39:01,949 --> 00:39:05,949
Потому что понятно, что это будет всё представляться, в первую очередь, в рамках AWS.
1018
00:39:05,949 --> 00:39:09,949
То есть вряд ли у этого даже будет какой-то чат специфический.
1019
00:39:11,949 --> 00:39:14,949
А если они всё-таки сделают своего чат-бота публичного?
1020
00:39:14,949 --> 00:39:16,949
Вот я прям бы удивился.
1021
00:39:16,949 --> 00:39:19,949
Уже подустали мы от этих чат-ботов, уже не знаешь, куда бежать.
1022
00:39:20,949 --> 00:39:23,949
То в Gemini, то в Cloud, да.
1023
00:39:24,949 --> 00:39:25,949
Ну посмотрим.
1024
00:39:25,949 --> 00:39:28,949
Это на самом деле хорошо, что все свои модели разрабатывают.
1025
00:39:29,949 --> 00:39:31,949
Мне на метис прям будет интересно посмотреть,
1026
00:39:31,949 --> 00:39:35,949
потому что у Amazon вроде дофига мощностей, чтобы заимпериментировать что-то новое,
1027
00:39:35,949 --> 00:39:39,949
а не переобучить какую-нибудь open-source ламу или что-то другое.
1028
00:39:40,949 --> 00:39:41,949
Так что будем следить.
1029
00:39:42,949 --> 00:39:45,949
А вот следующая компания у нас вообще, по-моему, не появляется.
1030
00:39:45,949 --> 00:39:47,949
Очень редко появляется.
1031
00:39:47,949 --> 00:39:49,949
Вот все мы знаем компанию NVIDIA.
1032
00:39:49,949 --> 00:39:51,949
Мало кто вспоминает про компанию AMD.
1033
00:39:53,949 --> 00:39:56,949
Ну мы в прошлом выпуске обсуждали, что там родственники работают,
1034
00:39:56,949 --> 00:39:59,949
что в NVIDIA, что в AMD, а в совете с директором.
1035
00:39:59,949 --> 00:40:02,949
В общем, можно сказать, дочерняя компания NVIDIA.
1036
00:40:03,949 --> 00:40:06,949
Не дочерняя, а племянничественная.
1037
00:40:06,949 --> 00:40:07,949
Племянничественная, да.
1038
00:40:08,949 --> 00:40:12,949
Купила крупнейшую в Европе лабораторию искусственного интеллекта.
1039
00:40:12,949 --> 00:40:13,949
Сайла А.И.
1040
00:40:13,949 --> 00:40:16,949
Кстати, Сайла классный сериал, просто по-криптически посмотрите.
1041
00:40:16,949 --> 00:40:19,949
Купила за 665 миллионов долларов.
1042
00:40:19,949 --> 00:40:20,949
Вот так вот.
1043
00:40:21,949 --> 00:40:23,949
И это что значит?
1044
00:40:23,949 --> 00:40:28,949
Это значит, что AMD не теряет надежды утереть нос своему дяде.
1045
00:40:28,949 --> 00:40:30,949
Всего AMD не теряет.
1046
00:40:31,949 --> 00:40:33,949
И что интересного там?
1047
00:40:34,949 --> 00:40:37,949
Ничего там не интересного, просто купили компанию, короче.
1048
00:40:38,949 --> 00:40:39,949
Так они...
1049
00:40:40,949 --> 00:40:43,949
Насколько ты знаешь подробности этой новости?
1050
00:40:43,949 --> 00:40:44,949
Они как бы...
1051
00:40:44,949 --> 00:40:46,949
Это для того, чтобы делать более эффективные карты?
1052
00:40:47,949 --> 00:40:51,949
Или они хотят сделать какое-то ответвление софтварное?
1053
00:40:52,949 --> 00:40:55,949
Не, я не думаю, что AMD будет делать софтварное ответвление.
1054
00:40:55,949 --> 00:40:59,949
Им бы процессоры не просрать, извините, конечно, за выражение.
1055
00:40:59,949 --> 00:41:01,949
Я думаю, что они будут...
1056
00:41:01,949 --> 00:41:06,949
Либо затачиваться под существующее решение, делать какие-то конкурентные штуки,
1057
00:41:06,949 --> 00:41:09,949
типа, не знаю, куд своих.
1058
00:41:09,949 --> 00:41:12,949
Либо они, может быть, может быть,
1059
00:41:12,949 --> 00:41:13,949
ну я, конечно, очень удивлюсь,
1060
00:41:13,949 --> 00:41:17,949
но может быть они посмотрят в сторону создания новых архитектур процессоров,
1061
00:41:17,949 --> 00:41:19,949
заточенных исключительно под AI.
1062
00:41:19,949 --> 00:41:22,949
Поэтому целую лабораторию искусственного интеллекта купили.
1063
00:41:24,949 --> 00:41:28,949
Потому что там в новости говорят, что в этой компании прям очень крутые инженеры сидят.
1064
00:41:28,949 --> 00:41:30,949
Типа, крутейшие.
1065
00:41:32,949 --> 00:41:35,949
Зачем им инженер крутые?
1066
00:41:37,949 --> 00:41:38,949
Именно вы, яя.
1067
00:41:38,949 --> 00:41:41,949
Это ж не хардварные чуваки, которые камушки пилить будут.
1068
00:41:42,949 --> 00:41:43,949
Ну да, кстати.
1069
00:41:43,949 --> 00:41:44,949
Чё-то на стыке. Чё-то на стыке.
1070
00:41:44,949 --> 00:41:45,949
Ну, будем следить.
1071
00:41:45,949 --> 00:41:49,949
Во всяком случае, я рад, что у AMD появляется...
1072
00:41:49,949 --> 00:41:52,949
Точнее, AMD пытается еще на плаву оставаться.
1073
00:41:52,949 --> 00:41:56,949
Именно в рынке яяных чипов.
1074
00:41:56,949 --> 00:41:58,949
Будем надеяться, что все у них получится.
1075
00:41:59,949 --> 00:42:02,949
А вот знаешь, что прошло совсем незаметно?
1076
00:42:02,949 --> 00:42:06,949
Еще более незаметно, чем то, что AMD у нас редко в больших рыбах появляется.
1077
00:42:07,949 --> 00:42:10,949
Наверное, это самая конференция Самсунга, да?
1078
00:42:10,949 --> 00:42:11,949
Да.
1079
00:42:11,949 --> 00:42:13,949
Ты знал, что она существует.
1080
00:42:13,949 --> 00:42:14,949
Я догадался.
1081
00:42:14,949 --> 00:42:15,949
Логично, что она существует, да.
1082
00:42:15,949 --> 00:42:20,949
Это самая конференция, которую никто не посмотрел.
1083
00:42:21,949 --> 00:42:24,949
Но на конференции, естественно, все сейчас показывают AI.
1084
00:42:24,949 --> 00:42:26,949
И Самсунг тоже показал AI.
1085
00:42:26,949 --> 00:42:28,949
Показали свои новые телефоны.
1086
00:42:28,949 --> 00:42:31,949
Показали нового помощника Galaxy AI.
1087
00:42:32,949 --> 00:42:36,949
Который будет там и переводы в онлайне делать в реальном времени.
1088
00:42:36,949 --> 00:42:40,949
И рисовать картинки и фотографии.
1089
00:42:40,949 --> 00:42:42,949
Редактировать с помощью AI.
1090
00:42:42,949 --> 00:42:45,949
И ассистент, который будет в заметках там что-то делать.
1091
00:42:45,949 --> 00:42:48,949
В общем, не показали ничего нового, одним словом, так-то.
1092
00:42:50,949 --> 00:42:51,949
Ничего нового.
1093
00:42:51,949 --> 00:42:55,949
Ничего нового, но как будто бы по возможностям этого AI,
1094
00:42:55,949 --> 00:42:57,949
внедренного в телефон,
1095
00:42:57,949 --> 00:43:00,949
мне показалось, что это даже побогаче, чем у Apple.
1096
00:43:03,949 --> 00:43:06,949
Ну, давай, расскажи, что ты там увидел.
1097
00:43:06,949 --> 00:43:08,949
Я просто не совсем в теме Самсунгов.
1098
00:43:08,949 --> 00:43:09,949
Я знаю, что они супер дорогие.
1099
00:43:09,949 --> 00:43:11,949
Смотри, я чуть-чуть...
1100
00:43:11,949 --> 00:43:13,949
Они стоят, как айфоны.
1101
00:43:13,949 --> 00:43:16,949
Я чуть-чуть глянул обзоры этих фичей.
1102
00:43:16,949 --> 00:43:21,949
По-моему, все эти AI-фичи уже появились на телефонах новых.
1103
00:43:21,949 --> 00:43:24,949
И они работают на русском языке.
1104
00:43:25,949 --> 00:43:27,949
А, вот это прям хорошо, кстати.
1105
00:43:27,949 --> 00:43:29,949
Да, то есть то, чего у Apple не будет.
1106
00:43:29,949 --> 00:43:32,949
У них есть, например, живой переводчик.
1107
00:43:32,949 --> 00:43:34,949
В том числе в режиме разговора.
1108
00:43:34,949 --> 00:43:39,949
Живым переводчиком вы пользователей Google Pixel и новых вообще не удивили.
1109
00:43:39,949 --> 00:43:41,949
У нас существует уже 100 лет в обед, так что...
1110
00:43:43,949 --> 00:43:44,949
На все языки.
1111
00:43:44,949 --> 00:43:45,949
Конечно.
1112
00:43:45,949 --> 00:43:47,949
Или только с английского на испанский.
1113
00:43:47,949 --> 00:43:50,949
Ну, не на все, но русский поддерживается.
1114
00:43:53,949 --> 00:43:58,949
Вот, как минимум, вот это как будто бы реализовано лучше.
1115
00:43:59,949 --> 00:44:06,949
Потом у них появилась возможность генерировать объекты на фотографиях.
1116
00:44:06,949 --> 00:44:13,949
То есть ты можешь, например, не просто удалить объект с фотографии какой-то,
1117
00:44:13,949 --> 00:44:16,949
но, например, ты сфотографировал поле, а на нем машина.
1118
00:44:16,949 --> 00:44:18,949
И ты хочешь машину удалить.
1119
00:44:18,949 --> 00:44:21,949
Ты, например, на Apple это сможешь сделать.
1120
00:44:22,949 --> 00:44:25,949
На Pixel, насколько я понимаю, уже можно это сделать.
1121
00:44:25,949 --> 00:44:27,949
На Pixel это можно было 4 года назад сделать.
1122
00:44:28,949 --> 00:44:29,949
Ну, тем более.
1123
00:44:29,949 --> 00:44:32,949
А в Samsung эту машину можно будет наоборот добавить.
1124
00:44:33,949 --> 00:44:37,949
То есть ты обводишь место, и там появляется машина.
1125
00:44:39,949 --> 00:44:42,949
И она появляется в соответствии со фотографией.
1126
00:44:42,949 --> 00:44:46,949
То есть если там картинка реалистичная, то машина будет тоже реалистичная.
1127
00:44:46,949 --> 00:44:50,949
Это же то же самое, что Apple показал в своих новых операционках.
1128
00:44:50,949 --> 00:44:52,949
По-моему, они тоже показывали такой инструмент.
1129
00:44:52,949 --> 00:44:53,949
Не помню, обсуждали его или нет.
1130
00:44:53,949 --> 00:44:54,949
Там такого не будет.
1131
00:44:54,949 --> 00:44:56,949
Дорисовок не было разве?
1132
00:44:56,949 --> 00:44:57,949
У-у.
1133
00:45:00,949 --> 00:45:01,949
Дорисовок там не будет.
1134
00:45:01,949 --> 00:45:03,949
Ну ладно, ну ладно, ну ладно, все.
1135
00:45:03,949 --> 00:45:08,949
Если бы это еще стоило, как подписка на какой-нибудь Photoshop 20 долларов в месяц,
1136
00:45:08,949 --> 00:45:09,949
то я бы даже подумал.
1137
00:45:10,949 --> 00:45:13,949
Не, ну стоит это как с телефоном Samsung.
1138
00:45:13,949 --> 00:45:14,949
Соответственно.
1139
00:45:17,949 --> 00:45:20,949
Ты знаешь, я бегло посмотрел на всю эту презентацию.
1140
00:45:20,949 --> 00:45:22,949
Мне понравилась одна штука.
1141
00:45:22,949 --> 00:45:25,949
Мне понравилось, что они составили конкуренцию Ауаринг.
1142
00:45:27,949 --> 00:45:30,949
Ауаринг — это кольцо, которое стоит немалых денег,
1143
00:45:30,949 --> 00:45:33,949
и меряет все твои показатели физические.
1144
00:45:33,949 --> 00:45:34,949
Они там даже...
1145
00:45:34,949 --> 00:45:35,949
Они сейчас очень популярные.
1146
00:45:35,949 --> 00:45:36,949
Да-да-да.
1147
00:45:36,949 --> 00:45:38,949
Даже у нашего Жени Тихонова оно есть.
1148
00:45:38,949 --> 00:45:41,949
И они недавно там себе завезли какого-то AI-ассистента в приложение,
1149
00:45:41,949 --> 00:45:44,949
который там может запоминать твои данные, аналитику строить.
1150
00:45:44,949 --> 00:45:47,949
Так вот, Galaxy показали свое кольцо Galaxy Ring.
1151
00:45:47,949 --> 00:45:48,949
Оно смотрится прям красиво.
1152
00:45:48,949 --> 00:45:51,949
Я не помню, сколько оно стоит, но, по-моему, соизмеримо с Ауаринг.
1153
00:45:52,949 --> 00:45:55,949
И у них тоже есть AI, которое мониторит ваше здоровье,
1154
00:45:55,949 --> 00:45:57,949
и все это одобрено FDM.
1155
00:45:58,949 --> 00:46:01,949
Точнее, не все это одобрено FDM, а некоторые функции.
1156
00:46:01,949 --> 00:46:07,949
Ну, в общем-то, я прям присматривался к Ауаринг.
1157
00:46:07,949 --> 00:46:09,949
Мне казалось, что странно, что у них нет конкурентов,
1158
00:46:09,949 --> 00:46:11,949
и что они прям дорогие.
1159
00:46:11,949 --> 00:46:16,949
И я сейчас прям засматриваюсь на Galaxy Ring.
1160
00:46:18,949 --> 00:46:19,949
Даже так.
1161
00:46:19,949 --> 00:46:20,949
Как-то так.
1162
00:46:20,949 --> 00:46:22,949
Ну, плюс они еще могут храп обнаруживать во сне.
1163
00:46:22,949 --> 00:46:24,949
Для меня это актуальная проблема.
1164
00:46:26,949 --> 00:46:27,949
Знаешь, бывает, что...
1165
00:46:27,949 --> 00:46:29,949
Какая это проблема? Ты же спишь, Леша.
1166
00:46:29,949 --> 00:46:33,949
Не, ну, если это кольцо сможет обнаруживать мой храп
1167
00:46:33,949 --> 00:46:36,949
до того, как его обнаружила супруга,
1168
00:46:36,949 --> 00:46:40,949
то я могу очень сильно качественно повысить наше отношение.
1169
00:46:40,949 --> 00:46:42,949
Ну, прикинь, кольцо начинает тебе вибрировать,
1170
00:46:42,949 --> 00:46:45,949
типа ты начинаешь храпеть. Повернись на бог.
1171
00:46:48,949 --> 00:46:50,949
Ну, и отслеживание диабета тоже полезно.
1172
00:46:50,949 --> 00:46:51,949
Согласен.
1173
00:46:53,949 --> 00:46:55,949
Оно прям может сахар мерить в крови.
1174
00:46:56,949 --> 00:46:57,949
Нет, сахар же можно...
1175
00:46:57,949 --> 00:47:00,949
Ну, сахар можно мерить разными методами.
1176
00:47:00,949 --> 00:47:05,949
Понятное дело, что самое лучшее измерение — это кровь взять.
1177
00:47:06,949 --> 00:47:07,949
Инвазивно.
1178
00:47:07,949 --> 00:47:11,949
Но всяческие там маркеры диабета, я так понимаю,
1179
00:47:11,949 --> 00:47:16,949
связанные с состоянием подкожных вот этих венок маленьких,
1180
00:47:16,949 --> 00:47:19,949
возможно, с какими-нибудь кожными эффектами,
1181
00:47:19,949 --> 00:47:20,949
можно отслеживать.
1182
00:47:20,949 --> 00:47:22,949
То есть не напрямую, но косвенно.
1183
00:47:23,949 --> 00:47:24,949
В принципе, много кто делает.
1184
00:47:24,949 --> 00:47:25,949
По-моему, даже Xiaomi-браслет.
1185
00:47:25,949 --> 00:47:29,949
Я помню, был стартап на Kickstarter,
1186
00:47:29,949 --> 00:47:34,949
который собрал очень много денег как раз на изобретение кольца,
1187
00:47:34,949 --> 00:47:35,949
который может мерить сахар в крови.
1188
00:47:35,949 --> 00:47:37,949
Ну, это было году в 10-м, наверное.
1189
00:47:38,949 --> 00:47:40,949
Ну, может, не в 10-м, может, в 15-м.
1190
00:47:40,949 --> 00:47:43,949
И они всех кинули, они не смогли это кольцо сделать.
1191
00:47:43,949 --> 00:47:44,949
Ну, как фантазии.
1192
00:47:44,949 --> 00:47:46,949
Просто собрали бабки и исчезли.
1193
00:47:46,949 --> 00:47:47,949
Кольцо, оно ездит.
1194
00:47:48,949 --> 00:47:51,949
Я ж ходил с этим датчиком, по-моему, даже в подкасте рассказывал.
1195
00:47:51,949 --> 00:47:53,949
Датчик на плече двухнедельный.
1196
00:47:53,949 --> 00:47:56,949
Там прям такая иголочка полусантиметровая.
1197
00:47:56,949 --> 00:47:59,949
Ну, такая не иголочка, а она гнудкая.
1198
00:47:59,949 --> 00:48:00,949
И она у тебя прям стоит.
1199
00:48:00,949 --> 00:48:01,949
Там самая главная проблема в том,
1200
00:48:01,949 --> 00:48:05,949
что окисляются контакты, надо менять постоянно.
1201
00:48:07,949 --> 00:48:08,949
А стоит даже фига.
1202
00:48:09,949 --> 00:48:10,949
Да, 100 долларов стоило.
1203
00:48:12,949 --> 00:48:13,949
Ну, или 80.
1204
00:48:13,949 --> 00:48:15,949
В общем-то, вот так.
1205
00:48:15,949 --> 00:48:18,949
Хотите посмотреть сами, можете посмотреть.
1206
00:48:18,949 --> 00:48:20,949
Конференция недолгая, около часа.
1207
00:48:20,949 --> 00:48:23,949
Выглядит что-то среднее между фейсбуковским,
1208
00:48:23,949 --> 00:48:28,949
ламповым конференцией, конференцией, снятой Пловской.
1209
00:48:29,949 --> 00:48:31,949
Я порадовался, не порадовался...
1210
00:48:31,949 --> 00:48:33,949
Да ладно, никому я вру.
1211
00:48:33,949 --> 00:48:36,949
Я порадовался тому, что там присутствовала Сидни Суини.
1212
00:48:37,949 --> 00:48:39,949
Если кто не знает, обязательно посмотрите.
1213
00:48:39,949 --> 00:48:40,949
Замечательная актриса.
1214
00:48:40,949 --> 00:48:41,949
Почему она там присутствовала?
1215
00:48:41,949 --> 00:48:42,949
Потому что они...
1216
00:48:42,949 --> 00:48:44,949
И я, и аватары тоже показывали.
1217
00:48:44,949 --> 00:48:48,949
Один из я, и аватаров, они срисовали с этой замечательной актрисой.
1218
00:48:49,949 --> 00:48:52,949
И они прям в живом эфире попытались в интерактив.
1219
00:48:52,949 --> 00:48:54,949
Они там со сцены прямо у нас, тут с нами.
1220
00:48:54,949 --> 00:48:57,949
И Сидни Суини показывают Сидни Суини.
1221
00:48:57,949 --> 00:49:01,949
Она там прям в таком деловом платье, что для нее необычно.
1222
00:49:02,949 --> 00:49:04,949
И немножко такая ошарашенная, так рабеет.
1223
00:49:04,949 --> 00:49:05,949
Такая, о, как прикольно.
1224
00:49:05,949 --> 00:49:07,949
Ну, короче, попытались в интерактив.
1225
00:49:07,949 --> 00:49:12,949
Это выглядело вот на уровне какой-то кринжательной силиконовой долины,
1226
00:49:12,949 --> 00:49:15,949
когда интроверты со сцены пытаются разговаривать с селем.
1227
00:49:16,949 --> 00:49:18,949
Что-то такое там было.
1228
00:49:19,949 --> 00:49:22,949
Короче, теперь точно стоит посмотреть эту конференцию.
1229
00:49:22,949 --> 00:49:23,949
В общем.
1230
00:49:25,949 --> 00:49:26,949
Так, ну и что еще?
1231
00:49:26,949 --> 00:49:32,949
Еще, кстати, рассказали же про то, что ИИ будет анализировать физические данные.
1232
00:49:32,949 --> 00:49:37,949
Такие там, как сон, нагрузки, спортивные показатели и прочее.
1233
00:49:37,949 --> 00:49:39,949
Ну, этим уже мало кого удивишь, на самом деле.
1234
00:49:40,949 --> 00:49:42,949
Если бы там какая-то технология лежала под капотом.
1235
00:49:42,949 --> 00:49:46,949
А так, ну, ты обычно на уровне настроить промпт и правильно подать данные на вход.
1236
00:49:46,949 --> 00:49:47,949
Это правда, да.
1237
00:49:47,949 --> 00:49:50,949
Это правда, но вообще сам факт, что подумай о том,
1238
00:49:50,949 --> 00:49:53,949
сколько в телефоне информации о твоем здоровье содержится.
1239
00:49:53,949 --> 00:49:54,949
Очень мало.
1240
00:49:55,949 --> 00:49:57,949
Ну, окей.
1241
00:49:57,949 --> 00:49:59,949
В моем телефоне вообще нет информации о моем здоровье.
1242
00:50:00,949 --> 00:50:02,949
Вообще никакой. Он и шаги у тебя не считает.
1243
00:50:02,949 --> 00:50:03,949
Не считает.
1244
00:50:04,949 --> 00:50:05,949
Как он будет считать?
1245
00:50:05,949 --> 00:50:07,949
Телефон вообще-то очень плохо шаги считать может.
1246
00:50:08,949 --> 00:50:11,949
Телефон очень плохо может считать шаги, это правда.
1247
00:50:11,949 --> 00:50:13,949
Но приблизительно как-то может.
1248
00:50:13,949 --> 00:50:18,949
Но смотри, в среднестатистическом телефоне это шаги, это тренировки.
1249
00:50:19,949 --> 00:50:21,949
Мой телефон там знает мой рост вес,
1250
00:50:21,949 --> 00:50:24,949
он может отслеживать динамику веса по умным весам.
1251
00:50:25,949 --> 00:50:29,949
Некоторые люди заморачиваются, данные о калориях подают в телефон.
1252
00:50:30,949 --> 00:50:34,949
В телефоне еще в почте у тебя наверняка лежат где-то результаты анализов.
1253
00:50:35,949 --> 00:50:40,949
То есть все данные для того, чтобы предсказывать какие-то моменты о твоем здоровье,
1254
00:50:40,949 --> 00:50:41,949
в телефоне есть.
1255
00:50:44,949 --> 00:50:48,949
Ты когда говоришь, что в телефоне есть мои данные анализов,
1256
00:50:48,949 --> 00:50:52,949
меня тут немножко триггерит, потому что мои данные анализов есть, сука, в моей почте.
1257
00:50:52,949 --> 00:50:56,949
И мой телефон не должен иметь без моего разрешения доступ к моей почте.
1258
00:50:57,949 --> 00:51:00,949
Поэтому это не моего телефона заслуживает, а моей почте.
1259
00:51:03,949 --> 00:51:04,949
Но в целом да, я понял.
1260
00:51:04,949 --> 00:51:08,949
То есть ты хочешь сказать, что с телефона можно наценить столько информации,
1261
00:51:08,949 --> 00:51:10,949
чтобы делать хорошее предсказание?
1262
00:51:10,949 --> 00:51:12,949
Я думаю, что да.
1263
00:51:13,949 --> 00:51:16,949
Главное, чтобы товарищу майору поменьше их сливали.
1264
00:51:18,949 --> 00:51:21,949
Медицинскому товарищу доктору будут сливать.
1265
00:51:23,949 --> 00:51:25,949
Я, кстати, посмотрел, сколько Galaxy Ring стоит.
1266
00:51:25,949 --> 00:51:26,949
Стоит она 400 долларов.
1267
00:51:26,949 --> 00:51:28,949
Это на 100 долларов больше, чем Aura Ring.
1268
00:51:28,949 --> 00:51:31,949
Поэтому теперь Aura Ring в моих глазах поднялись.
1269
00:51:35,949 --> 00:51:39,949
Это, наверное, хорошо, если ты в инфраструктуре Самсунга живешь.
1270
00:51:40,949 --> 00:51:42,949
Тогда да, тогда можно и Galaxy Ring купить.
1271
00:51:43,949 --> 00:51:47,949
Я надеюсь, что не будет Samsung подсаживать на инфраструктуру через кольцо.
1272
00:51:47,949 --> 00:51:50,949
Вообще я сильно не люблю эти инфраструктурные войны.
1273
00:51:50,949 --> 00:51:52,949
Я за это Google Pixel люблю.
1274
00:51:52,949 --> 00:51:54,949
Ну ладно, у них инфраструктура софтверная.
1275
00:51:54,949 --> 00:52:00,949
Понятно, они тебе и почту, и диск, и все, что хочешь, апишки на это подсаживают.
1276
00:52:00,949 --> 00:52:02,949
Но с хардверной точки зрения, что у них?
1277
00:52:02,949 --> 00:52:04,949
У них телефон, у них наушники, и все, по факту.
1278
00:52:04,949 --> 00:52:05,949
Ну, планшет.
1279
00:52:05,949 --> 00:52:07,949
А Chromebook'и, конечно.
1280
00:52:07,949 --> 00:52:09,949
Ну, кто ими пользуется?
1281
00:52:09,949 --> 00:52:11,949
Эти два человека, которые их же сами и пилят.
1282
00:52:11,949 --> 00:52:12,949
Камон.
1283
00:52:13,949 --> 00:52:16,949
Вообще мне всегда нравится смотреть на гугловские конференции,
1284
00:52:16,949 --> 00:52:19,949
где все девелоперы с макбуками сидят всегда.
1285
00:52:19,949 --> 00:52:21,949
Это очень мило.
1286
00:52:21,949 --> 00:52:24,949
Это, между прочим, показывает Diversity в компании Google.
1287
00:52:24,949 --> 00:52:27,949
Понятно, там даже с конкурентскими ноутбуками сидеть.
1288
00:52:27,949 --> 00:52:28,949
Да, да, да.
1289
00:52:28,949 --> 00:52:32,949
Вот на эппловских конференциях никого с Chromebook'ом не увидишь.
1290
00:52:32,949 --> 00:52:34,949
Их там отстреливают просто.
1291
00:52:34,949 --> 00:52:37,949
Да, запрещают, скорее всего.
1292
00:52:37,949 --> 00:52:39,949
Что еще, Витя?
1293
00:52:40,949 --> 00:52:41,949
Что еще?
1294
00:52:41,949 --> 00:52:44,949
Еще, конечно же, Илон Маск.
1295
00:52:44,949 --> 00:52:46,949
Илон Маск наш дорогой.
1296
00:52:46,949 --> 00:52:49,949
Да, без него мы обещали, что он будет.
1297
00:52:49,949 --> 00:52:50,949
И он есть.
1298
00:52:50,949 --> 00:52:55,949
Илон Маск рассказал, что Грок 2 уже практически готов.
1299
00:52:57,949 --> 00:53:01,949
Да, сказал он, что в следующем месяце мы его увидим.
1300
00:53:01,949 --> 00:53:03,949
Это июнь, в августе получается.
1301
00:53:03,949 --> 00:53:05,949
Мне прям даже интересно посмотреть.
1302
00:53:05,949 --> 00:53:07,949
Потому что я нет-нет допользуюсь.
1303
00:53:08,929 --> 00:53:17,929
...по своей иксовой подписке игроком первым. Посматриваю, пока он тупенький, но, учитывая, что он рассказывает, что второго игрока тренировали
1304
00:53:17,929 --> 00:53:26,929
на том самом здоровенном мегакластере на 100 тысяч х100 карточек, будет интересно посмотреть, насколько он сможет составить конкуренцию.
1305
00:53:26,929 --> 00:53:33,929
Да, ну и вроде как он сказал, что они останавливаться не будут, и игрока третьего начнет сразу же тренировать.
1306
00:53:33,929 --> 00:53:35,929
Ага, на новом дата-центре, да?
1307
00:53:35,929 --> 00:53:37,929
Да, наверное.
1308
00:53:37,929 --> 00:53:41,929
Не, ну, с такими мощностями я не удивлюсь, если он будет прям топчик.
1309
00:53:43,929 --> 00:53:45,929
Главное, чтобы не подкрутили к выборам.
1310
00:53:45,929 --> 00:53:47,929
Главное, чтобы к выборам не подкрутили.
1311
00:53:47,929 --> 00:53:51,929
А, может, поэтому как раз вторая версия и релизится.
1312
00:53:51,929 --> 00:53:53,929
Может быть.
1313
00:53:53,929 --> 00:53:58,929
Ну, а пока мы ждем игрока 2.0, про который мы, кстати, давно не разговаривали.
1314
00:53:58,929 --> 00:54:02,929
Замечательный сервис от создателя Quora, Adam D'Angelo.
1315
00:54:03,929 --> 00:54:05,929
Выкатил превьюз.
1316
00:54:05,929 --> 00:54:12,929
И превьюз — это те же самые артефакты от Антропика, но только которые работают со всеми крупными LLM-ками.
1317
00:54:12,929 --> 00:54:17,929
Потому что POE — это провайдер LLM-ок в виде чат-интерфейсов.
1318
00:54:17,929 --> 00:54:20,929
Там можно создавать ботов на базе разных LLM-ок, общаться с ними.
1319
00:54:20,929 --> 00:54:22,929
И вот они сделали превьюзы.
1320
00:54:22,929 --> 00:54:24,929
Я эти превью прям хорошо потыкал.
1321
00:54:24,929 --> 00:54:28,929
Они работают так же, как антропиковские.
1322
00:54:28,929 --> 00:54:31,929
Там поддерживается HTML, CSS, JavaScript запуск.
1323
00:54:31,929 --> 00:54:33,929
Можно графики интерактивные делать, презентажки.
1324
00:54:33,929 --> 00:54:36,929
Обещают, что скоро добавят новые фичи.
1325
00:54:36,929 --> 00:54:40,929
Ну, скорее всего, первый из фичей будет завести туда Python.
1326
00:54:40,929 --> 00:54:42,929
То же самое, что Антропик обещал.
1327
00:54:42,929 --> 00:54:46,929
Ну, там прикольно, да, он и графики всякие умеет врисовать.
1328
00:54:46,929 --> 00:54:52,929
Ну, единственное, что в Антропике удобно, что артефакты у них сбоку, и они всегда у тебя видны.
1329
00:54:52,929 --> 00:54:56,929
А в POE это интерактивное окно, оно в самом чате.
1330
00:54:56,929 --> 00:54:59,929
Просто одно из сообщений, да, по факту.
1331
00:54:59,929 --> 00:55:04,929
Но, что интересно, POE умеет хорошо, во-первых, редактировать части кода.
1332
00:55:04,929 --> 00:55:08,929
То есть, если он что-то написал, ты можешь попросить конкретную функцию изменить,
1333
00:55:08,929 --> 00:55:12,929
и он не перегенерирует код, а меняет функцию почти без галлюцинаций.
1334
00:55:12,929 --> 00:55:18,929
По идее, это не фишка POE, это же на базе LLM-ок все работает.
1335
00:55:18,929 --> 00:55:20,929
Но почему-то в POE мне показалось, что это лучше работает.
1336
00:55:21,929 --> 00:55:28,929
И у них, я не подчисливал точно, но у них, по-моему, сильно больше контекстное окно для аутпута,
1337
00:55:28,929 --> 00:55:35,929
потому что в Антропике, если ты за 4000 токенов выходишь, у тебя появляется кнопка continue,
1338
00:55:35,929 --> 00:55:39,929
и если ты нажимаешь continue, у тебя в окне артефактов не слепливаются эти два сообщения.
1339
00:55:39,929 --> 00:55:47,929
А в POE я прямо написал шахматы, попросил сделать шахматы по нормальным правилам с AI-противником,
1340
00:55:47,929 --> 00:55:52,929
и он то все сделал, достаточно длинный код написал и вывел, и я в эти шахматы тоже немножко поиграл.
1341
00:55:52,929 --> 00:55:53,929
Вот так вот.
1342
00:55:53,929 --> 00:55:56,929
Ничего себе, они нормально работали, все было хорошо.
1343
00:55:56,929 --> 00:56:01,929
Ну, там первая итерация была такая, что все ходят как хотят, вообще без правил.
1344
00:56:03,929 --> 00:56:07,929
Я его попросил, я ему сказал, что вообще-то шахматы по правилам должны быть,
1345
00:56:07,929 --> 00:56:10,929
и эти фигуры, каждая ходит по своим правилам, пожалуйста, заимплементируй.
1346
00:56:10,929 --> 00:56:15,929
Он это заимплементировал, причем кусочком отдельным, дописал этот отдельный кусочек,
1347
00:56:15,929 --> 00:56:22,929
но написал его просто, типа написал кусок кода и говорит, вот этот кусок кода сделает нормальными шахматы.
1348
00:56:22,929 --> 00:56:24,929
То есть, соответственно, ничего не запустилось.
1349
00:56:24,929 --> 00:56:27,929
Я его третьим сообщением попросил объединить два этих куска кода, изначальный,
1350
00:56:27,929 --> 00:56:31,929
и то, что он дописал, он все красиво объединил и все заработало, да.
1351
00:56:34,929 --> 00:56:35,929
Вот.
1352
00:56:35,929 --> 00:56:37,929
Ну, по кеюшке, нормально.
1353
00:56:37,929 --> 00:56:42,929
Кстати, о артефактах антропиковских.
1354
00:56:42,929 --> 00:56:46,929
Мы с тобой когда про них говорили, в прошлом выпуске или в позапрошлом?
1355
00:56:46,929 --> 00:56:49,929
В прошлом или позапрошлом, я уже не помню, честно говоря.
1356
00:56:49,929 --> 00:56:50,929
Наверное, в прошлом.
1357
00:56:50,929 --> 00:56:53,929
Короче, совсем недавно мы говорили, и говорили, что было бы неплохо,
1358
00:56:53,929 --> 00:56:57,929
чтобы у них появился весь функционал, как у GPTIS,
1359
00:56:57,929 --> 00:57:02,929
а в том числе возможность публиковать и расшаривать эти артефакты.
1360
00:57:02,929 --> 00:57:04,929
И что ты думаешь?
1361
00:57:04,929 --> 00:57:06,929
Нас посмотрели и послушали.
1362
00:57:06,929 --> 00:57:07,929
Да, да.
1363
00:57:07,929 --> 00:57:08,929
Все ж понятно.
1364
00:57:08,929 --> 00:57:12,929
Теперь такая возможность есть, и теперь не только GPTIS,
1365
00:57:12,929 --> 00:57:16,929
а осталось только, чтобы у всего этого появился какой-то удобный каталог,
1366
00:57:18,929 --> 00:57:21,929
в идеале еще с поиском рекомендаций, и, пожалуйста.
1367
00:57:22,929 --> 00:57:25,929
Ну, кстати говоря, забавный момент был,
1368
00:57:25,929 --> 00:57:30,929
потому что позы зарелизили превьюз ровно в тот же день, почти в тот же час,
1369
00:57:30,929 --> 00:57:35,929
когда антропик сказал, что у них появилась возможность шаринга артефактов.
1370
00:57:35,929 --> 00:57:40,929
А учитывая, что антропик свои первые модели, если ты помнишь, через По показывал,
1371
00:57:40,929 --> 00:57:42,929
у них не было своего интерфейса.
1372
00:57:42,929 --> 00:57:44,929
Да, так первых кодов только можно...
1373
00:57:44,929 --> 00:57:47,929
По-моему, он даже док-кодом не назывался, если я не ошибаюсь.
1374
00:57:47,929 --> 00:57:49,929
А нет, назывался, назывался.
1375
00:57:49,929 --> 00:57:53,929
Ну да, первых кодов можно было только через По потестить.
1376
00:57:53,929 --> 00:57:54,929
У тебя камера выключилась.
1377
00:57:55,929 --> 00:57:58,929
Да, я знаю. Немножко посидим без моей камеры, потому что у меня она перегрелась.
1378
00:57:58,929 --> 00:58:03,929
Так вот, они в один вот тот же момент выкатили свои обновления,
1379
00:58:03,929 --> 00:58:06,929
и у По сразу по дефолту была возможность шаринга.
1380
00:58:07,929 --> 00:58:12,929
Мне кажется, что они либо вместе это всё как-то разрабатывают, синхронизируются,
1381
00:58:12,929 --> 00:58:15,929
либо как-то конкурировать пытаются.
1382
00:58:15,929 --> 00:58:16,929
В общем, прикольно выглядело.
1383
00:58:17,929 --> 00:58:19,929
Ну, они точно дружат.
1384
00:58:19,929 --> 00:58:27,929
Я напоминаю, что вообще По — это то приложение, в котором GPT-4 появился не в день релиза,
1385
00:58:27,929 --> 00:58:29,929
а в час релиза GPT-4.
1386
00:58:31,929 --> 00:58:32,929
В своё время.
1387
00:58:32,929 --> 00:58:37,929
И Томас, ой, Адам Д'Анджело, чувак, который так-то сидит ещё в совете директоров,
1388
00:58:37,929 --> 00:58:44,929
единственный из всех членов директората, который остался после той самой эпопеи с увольнением Сама Альтмана.
1389
00:58:44,929 --> 00:58:47,929
И он не подписал документы возвращения Сама Альтмана.
1390
00:58:47,929 --> 00:58:52,929
То есть чувак явно на очень хорошем счету, либо очень хорошие подвязки имеет, раз остаётся там.
1391
00:58:53,929 --> 00:58:55,929
И может даже и право голоса есть.
1392
00:58:55,929 --> 00:58:58,929
Точно есть он, да, он как раз-таки не наблюдатель.
1393
00:58:59,929 --> 00:59:03,929
А вот Китай тоже на месте не стоит.
1394
00:59:03,929 --> 00:59:05,929
С Китая редко новости к нам долетают.
1395
00:59:05,929 --> 00:59:10,929
Но тут у них была конференция, называется она World Artificial Intelligence Conference.
1396
00:59:10,929 --> 00:59:13,929
И они в рамках этой конференции много чего показали.
1397
00:59:13,929 --> 00:59:18,929
В частности, меня заинтересовала их моделька под названием Sense Nova 5.5.
1398
00:59:18,929 --> 00:59:21,929
Они на базе этой модели дофигища разных продуктов показывали,
1399
00:59:21,929 --> 00:59:28,929
в том числе конкурент RG504O под названием Sense Nova 5.0.
1400
00:59:28,929 --> 00:59:30,929
Ясно, откуда корни растут.
1401
00:59:30,929 --> 00:59:35,929
Это реалтаймовая мультимодалка, которая может и аудио, и тексты видео.
1402
00:59:35,929 --> 00:59:38,929
В общем, всё то, что 4.0 может, то же самое Sense Nova может делать.
1403
00:59:38,929 --> 00:59:41,929
Мне нравится, что они такие, типа, а у нас будет 5.0.
1404
00:59:41,929 --> 00:59:43,929
Ну, о, это ж типа...
1405
00:59:43,929 --> 00:59:45,929
Ну, кстати, да, хорош.
1406
00:59:45,929 --> 00:59:46,929
О мне, да.
1407
00:59:46,929 --> 00:59:48,929
Да, ну, короче...
1408
00:59:49,929 --> 00:59:52,929
Можете посмотреть эту конференцию.
1409
00:59:52,929 --> 00:59:55,929
Я не знаю, будет ли она доступна на английском языке. Навряд ли.
1410
00:59:55,929 --> 01:00:00,929
Ссылочка будет в закрепе, на саму статью, там будет на конференцию ссылка.
1411
01:00:00,929 --> 01:00:04,929
Они говорят, что эта модель там по бенчмаркам чуть ли не...
1412
01:00:04,929 --> 01:00:08,929
по большей части бенчмарков превосходит RG504O.
1413
01:00:08,929 --> 01:00:09,929
Ну?
1414
01:00:09,929 --> 01:00:11,929
Да, видел, видел.
1415
01:00:11,929 --> 01:00:14,929
Но это не открытая модель, навряд ли мы её сможем потестить,
1416
01:00:14,929 --> 01:00:16,929
как минимум без телефона китайского.
1417
01:00:16,929 --> 01:00:17,929
Угу.
1418
01:00:17,929 --> 01:00:19,929
Ну, вот такие новости.
1419
01:00:19,929 --> 01:00:20,929
Не менее.
1420
01:00:21,929 --> 01:00:24,929
Так, университет Карнеги Мэлон.
1421
01:00:24,929 --> 01:00:29,929
Мне очень нравится название Мэлон, потому что я знаю, что Мэлон — это дыня.
1422
01:00:29,929 --> 01:00:30,929
А не арбуз?
1423
01:00:30,929 --> 01:00:31,929
Университет Карнеги Дыня.
1424
01:00:31,929 --> 01:00:32,929
Watermelon.
1425
01:00:32,929 --> 01:00:34,929
Арбуз — это Watermelon, да.
1426
01:00:34,929 --> 01:00:35,929
А-а-а.
1427
01:00:35,929 --> 01:00:39,929
Что логично, кстати, потому что, действительно, арбуз очень водянистый.
1428
01:00:39,929 --> 01:00:40,929
Ну, я даже...
1429
01:00:40,929 --> 01:00:41,929
Короче, ребята...
1430
01:00:41,929 --> 01:00:42,929
Прямо как наш подкаст иногда.
1431
01:00:42,929 --> 01:00:43,929
Хаджин Фэйси.
1432
01:00:44,929 --> 01:00:46,929
Да, это точно.
1433
01:00:47,929 --> 01:00:49,929
Например, прямо сейчас.
1434
01:00:50,929 --> 01:00:55,929
Ребята на Хаджин Фэйси выложили модель под названием Xeus.
1435
01:00:55,929 --> 01:00:57,929
Звучит как крутая игра.
1436
01:00:57,929 --> 01:01:04,929
Но это аудио-то аудиомодель, которая переводит аудио.
1437
01:01:04,929 --> 01:01:08,929
То есть вы подаёте, например, на вход речь на английском,
1438
01:01:08,929 --> 01:01:10,929
она возвращает речь на русском.
1439
01:01:10,929 --> 01:01:17,929
Обучена на целой куче, на миллионах часов аудиофайлов.
1440
01:01:19,929 --> 01:01:21,929
И поддерживает 4000 языков.
1441
01:01:21,929 --> 01:01:23,929
4000 языков. Офигеть.
1442
01:01:23,929 --> 01:01:26,929
Вот в наушнике осталось такое впилите, и всё.
1443
01:01:26,929 --> 01:01:28,929
В Rabbit R1, пожалуйста, впилите.
1444
01:01:28,929 --> 01:01:32,929
Не будет цены вашему устройству.
1445
01:01:33,929 --> 01:01:34,929
Да.
1446
01:01:34,929 --> 01:01:37,929
А вот ещё новости из Китая, кстати говоря.
1447
01:01:37,929 --> 01:01:39,929
Нет, не из Китая.
1448
01:01:39,929 --> 01:01:40,929
Хотя...
1449
01:01:40,929 --> 01:01:41,929
Короче.
1450
01:01:41,929 --> 01:01:43,929
Что там, Конг есть?
1451
01:01:43,929 --> 01:01:45,929
Что это значит, что это из Китая?
1452
01:01:46,929 --> 01:01:48,929
Я по-другому хотел сказать.
1453
01:01:48,929 --> 01:01:50,929
Я хотел сказать, что у нас в чате часто обсуждают,
1454
01:01:50,929 --> 01:01:53,929
что там по лмкам для камушков делают,
1455
01:01:53,929 --> 01:01:56,929
для микропроцессор-контроллеров и всего остального.
1456
01:01:56,929 --> 01:02:01,929
Иногда сетуют на то, что лмки плохо умеют работать с программированием низкоуровневым.
1457
01:02:01,929 --> 01:02:03,929
Тут есть двоякое мнение.
1458
01:02:03,929 --> 01:02:05,929
Например, Бобук Ришибукунов.
1459
01:02:05,929 --> 01:02:08,929
Я с ним недавно интервью записывал для своего сообщества.
1460
01:02:08,929 --> 01:02:12,929
Он наоборот говорит, что все лмки хорошо достаточно работают с камнями,
1461
01:02:12,929 --> 01:02:14,929
даже лучше, чем с языками программирования,
1462
01:02:14,929 --> 01:02:16,929
потому что для них это проще.
1463
01:02:16,929 --> 01:02:18,929
Так вот, новость следующая такова,
1464
01:02:18,929 --> 01:02:22,929
что компания Atimatic запустила лмку,
1465
01:02:22,929 --> 01:02:24,929
одну из первых лмок,
1466
01:02:24,929 --> 01:02:27,929
заточенной исключительно под работу с полупроводниками.
1467
01:02:27,929 --> 01:02:29,929
Называется Simicong.
1468
01:02:30,929 --> 01:02:32,929
И я немножко её потыкал,
1469
01:02:32,929 --> 01:02:34,929
можно прям зайти, у них есть интерфейс.
1470
01:02:34,929 --> 01:02:36,929
Это по факту чат, бот.
1471
01:02:36,929 --> 01:02:39,929
То есть просто интерфейс чата с лмкой под капотом,
1472
01:02:39,929 --> 01:02:42,929
но которая хорошо разбирается в полупроводниках.
1473
01:02:42,929 --> 01:02:45,929
Там можно у неё спросить, что лучше, для каких задач поговорить.
1474
01:02:45,929 --> 01:02:48,929
В общем-то, можете попробовать попользоваться.
1475
01:02:48,929 --> 01:02:50,929
С точки зрения программирования, не знаю, как она работает,
1476
01:02:50,929 --> 01:02:52,929
но она открытая.
1477
01:02:52,929 --> 01:02:54,929
Её можно ещё к тому же скачать.
1478
01:02:54,929 --> 01:02:56,929
Есть две версии на 8 миллиардов, 70 миллиардов параметров.
1479
01:02:56,929 --> 01:02:58,929
Всё доступно на хайгинг-фейсе.
1480
01:03:01,929 --> 01:03:03,929
Вот как-то так.
1481
01:03:04,929 --> 01:03:06,929
Окей, а компания,
1482
01:03:06,929 --> 01:03:08,929
название которой лично мне тяжело прочитать,
1483
01:03:08,929 --> 01:03:10,929
но я попробую.
1484
01:03:10,929 --> 01:03:12,929
Kuaytay Labs.
1485
01:03:12,929 --> 01:03:14,929
О, ты молодец. Я сначала прочитал.
1486
01:03:14,929 --> 01:03:15,929
Она китайская.
1487
01:03:15,929 --> 01:03:17,929
А я сначала прочитал кутаиси.
1488
01:03:17,929 --> 01:03:19,929
Кутаиси, да.
1489
01:03:21,929 --> 01:03:23,929
Видно, из Турции приехали, да?
1490
01:03:23,929 --> 01:03:24,929
В Турцию кутаиси?
1491
01:03:24,929 --> 01:03:25,929
Да-да-да.
1492
01:03:25,929 --> 01:03:27,929
Кутаиси — это в Грузии.
1493
01:03:27,929 --> 01:03:31,929
А, ну, видно, что Лёша в подкасте, да.
1494
01:03:31,929 --> 01:03:33,929
Куда?
1495
01:03:33,929 --> 01:03:35,929
Ну, это не китайская совсем.
1496
01:03:35,929 --> 01:03:37,929
Это французская e-лаборатория,
1497
01:03:37,929 --> 01:03:40,929
которая релизнула сервис
1498
01:03:40,929 --> 01:03:42,929
под названием Moshi.
1499
01:03:43,929 --> 01:03:45,929
Он же MoshiChat.
1500
01:03:47,929 --> 01:03:49,929
Что такое Moshi?
1501
01:03:49,929 --> 01:03:51,929
Moshi — это
1502
01:03:51,929 --> 01:03:53,929
тот самый GPC 4.0,
1503
01:03:53,929 --> 01:03:55,929
который нам показывали на презентации.
1504
01:03:56,929 --> 01:03:58,929
Его, точнее, голосовая часть,
1505
01:03:58,929 --> 01:04:00,929
которая до сих пор не релизнута у PDI,
1506
01:04:00,929 --> 01:04:02,929
но релизнуты вот эти кутаи-лабс.
1507
01:04:02,929 --> 01:04:04,929
По-моему, уже всё, что OpenAI показал,
1508
01:04:04,929 --> 01:04:07,929
зарелизили все, но только не OpenAI.
1509
01:04:07,929 --> 01:04:09,929
Кроме OpenAI. Даже Soru, да.
1510
01:04:09,929 --> 01:04:12,929
Да, даже Soru. Даже два раза.
1511
01:04:12,929 --> 01:04:15,929
Ну, короче, с этим MoshiChat можно общаться.
1512
01:04:15,929 --> 01:04:18,929
Там очень высокая скорость ответа,
1513
01:04:18,929 --> 01:04:20,929
всего 200 миллисекунд.
1514
01:04:20,929 --> 01:04:22,929
Его можно перебивать.
1515
01:04:22,929 --> 01:04:24,929
И это прям реально общение.
1516
01:04:24,929 --> 01:04:27,929
Реально общение в реальном времени.
1517
01:04:27,929 --> 01:04:29,929
Да, они показали, собственно, сам сервис.
1518
01:04:29,929 --> 01:04:31,929
Можно зайти туда его потыкать.
1519
01:04:31,929 --> 01:04:33,929
Он выглядит достаточно забавно.
1520
01:04:33,929 --> 01:04:35,929
Там есть бегунки, голоса.
1521
01:04:35,929 --> 01:04:38,929
Работает он, по-моему, только на аналитском сейчас.
1522
01:04:38,929 --> 01:04:40,929
Там маленькая моделька под капотом,
1523
01:04:40,929 --> 01:04:42,929
LLM-ка, Helium 7b.
1524
01:04:43,929 --> 01:04:47,929
Но, да, не упор делают именно на скорости ответа.
1525
01:04:47,929 --> 01:04:49,929
То есть она действительно очень быстро
1526
01:04:49,929 --> 01:04:51,929
может вам отвечать.
1527
01:04:51,929 --> 01:04:53,929
И, по-моему, я могу ошибаться,
1528
01:04:53,929 --> 01:04:55,929
но, по-моему, они это делают
1529
01:04:55,929 --> 01:04:58,929
для всяких потоковых стримингов.
1530
01:04:58,929 --> 01:05:00,929
Сейчас не вспомню.
1531
01:05:01,929 --> 01:05:04,929
Экспериментальный конверсейшн лэй ай.
1532
01:05:04,929 --> 01:05:06,929
Ну, в общем, посмотрите.
1533
01:05:06,929 --> 01:05:08,929
Кстати, демки с этим Moshi
1534
01:05:08,929 --> 01:05:10,929
прям по твиттеру сильно разлетелись,
1535
01:05:10,929 --> 01:05:11,929
когда они зарелизились.
1536
01:05:11,929 --> 01:05:13,929
Потому что штучка действительно
1537
01:05:13,929 --> 01:05:15,929
такая няшная, забавная на потыкать.
1538
01:05:15,929 --> 01:05:16,929
Ну и там куча настроек.
1539
01:05:16,929 --> 01:05:18,929
Можно температуры менять.
1540
01:05:18,929 --> 01:05:19,929
Причем разные температуры.
1541
01:05:19,929 --> 01:05:22,929
Как для LLM-ки, так и для аудиогенерации.
1542
01:05:22,929 --> 01:05:24,929
Можно кучу всего настраивать.
1543
01:05:25,929 --> 01:05:27,929
Хорошо.
1544
01:05:27,929 --> 01:05:29,929
С Kutaisi Labs разобрались.
1545
01:05:31,929 --> 01:05:33,929
Всё, буду теперь Kutaisi.
1546
01:05:35,929 --> 01:05:36,929
Одиссея.
1547
01:05:36,929 --> 01:05:37,929
Одиссея.
1548
01:05:37,929 --> 01:05:39,929
Но не космическая.
1549
01:05:39,929 --> 01:05:41,929
А ижная Одиссея.
1550
01:05:41,929 --> 01:05:42,929
Это новый стартап.
1551
01:05:42,929 --> 01:05:43,929
И не греческая.
1552
01:05:43,929 --> 01:05:44,929
Не греческая.
1553
01:05:44,929 --> 01:05:45,929
Не настольная игра.
1554
01:05:45,929 --> 01:05:47,929
А есть Одиссия.
1555
01:05:47,929 --> 01:05:49,929
Шакал Одиссия, по-моему.
1556
01:05:49,929 --> 01:05:51,929
В общем-то, очередной стартап,
1557
01:05:51,929 --> 01:05:53,929
который решил потеснить Голливуд.
1558
01:05:53,929 --> 01:05:55,929
Помнится, у нас уже были такие стартапы.
1559
01:05:55,929 --> 01:05:57,929
На V назывался как-то.
1560
01:05:59,929 --> 01:06:01,929
Которые графику 3D-шную делали.
1561
01:06:01,929 --> 01:06:02,929
Не помню.
1562
01:06:02,929 --> 01:06:03,929
Где-то в ранних выпусках.
1563
01:06:03,929 --> 01:06:05,929
Я уже не вспомню.
1564
01:06:05,929 --> 01:06:06,929
Не Runway Melt.
1565
01:06:06,929 --> 01:06:07,929
Понятно, что.
1566
01:06:07,929 --> 01:06:08,929
А там было Waymo.
1567
01:06:08,929 --> 01:06:09,929
Нет.
1568
01:06:09,929 --> 01:06:10,929
Ну, в общем-то.
1569
01:06:10,929 --> 01:06:12,929
Стартап, который собирается,
1570
01:06:12,929 --> 01:06:14,929
если не потеснить,
1571
01:06:14,929 --> 01:06:16,929
то продаться Голливуду.
1572
01:06:16,929 --> 01:06:18,929
Они делают систему,
1573
01:06:18,929 --> 01:06:20,929
которая генерирует видео
1574
01:06:20,929 --> 01:06:21,929
с текста.
1575
01:06:21,929 --> 01:06:22,929
Текст-то видео.
1576
01:06:22,929 --> 01:06:24,929
И эти генерации
1577
01:06:24,929 --> 01:06:26,929
можно менять очень адаптивно.
1578
01:06:26,929 --> 01:06:28,929
Чуть ли не до каждого объекта.
1579
01:06:28,929 --> 01:06:31,929
Не для каждого фонового объекта.
1580
01:06:31,929 --> 01:06:33,929
Выделяешь травичку, меняешь.
1581
01:06:33,929 --> 01:06:35,929
Меняешь сцены, движения объектов.
1582
01:06:35,929 --> 01:06:38,929
Они пока не показали сам продукт.
1583
01:06:38,929 --> 01:06:40,929
Они только сделали достаточно
1584
01:06:42,929 --> 01:06:44,929
интересный ленд-ос,
1585
01:06:44,929 --> 01:06:46,929
в котором много еще написано хорошего
1586
01:06:46,929 --> 01:06:48,929
и показано, как это будет работать.
1587
01:06:48,929 --> 01:06:52,929
И что, мы не видели стартапа,
1588
01:06:52,929 --> 01:06:54,929
которые нам что-то показывают,
1589
01:06:54,929 --> 01:06:55,929
а потом не выпускают?
1590
01:06:55,929 --> 01:06:56,929
Ну, видели миллион раз.
1591
01:06:56,929 --> 01:06:58,929
Но тут собрались нехилые такие люди.
1592
01:06:58,929 --> 01:06:59,929
Тут собрались...
1593
01:06:59,929 --> 01:07:01,929
Большую часть времени о них говорим
1594
01:07:01,929 --> 01:07:02,929
на самом деле здесь.
1595
01:07:02,929 --> 01:07:04,929
Не, ну мы стараемся такие не врать вырезать,
1596
01:07:04,929 --> 01:07:05,929
на самом-то деле.
1597
01:07:05,929 --> 01:07:07,929
В Odyssey работают чуваки,
1598
01:07:07,929 --> 01:07:09,929
которые работали над Дюной,
1599
01:07:09,929 --> 01:07:10,929
над Мстителями.
1600
01:07:10,929 --> 01:07:11,929
Художники.
1601
01:07:11,929 --> 01:07:12,929
Реальные художники,
1602
01:07:12,929 --> 01:07:14,929
которые знают, что им нужно,
1603
01:07:14,929 --> 01:07:16,929
как нужно автоматизировать работу,
1604
01:07:16,929 --> 01:07:17,929
чтобы им было удобнее.
1605
01:07:18,929 --> 01:07:19,929
Вот.
1606
01:07:19,929 --> 01:07:21,929
А, еще ж забыл тоже сказать,
1607
01:07:21,929 --> 01:07:23,929
что вообще Odyssey занимался
1608
01:07:23,929 --> 01:07:24,929
самоуправляемыми машинами,
1609
01:07:24,929 --> 01:07:26,929
компьютер-виженом для машин.
1610
01:07:26,929 --> 01:07:28,929
И это одна из их фишек.
1611
01:07:28,929 --> 01:07:30,929
Они используют для создания 3D-сцен
1612
01:07:30,929 --> 01:07:33,929
данные со своих вот этих вот наработок
1613
01:07:33,929 --> 01:07:35,929
для самоуправляемых автомобилей.
1614
01:07:35,929 --> 01:07:37,929
То есть данные из реального мира
1615
01:07:37,929 --> 01:07:38,929
для обучения используют.
1616
01:07:38,929 --> 01:07:40,929
Что тоже достаточно интересный опыт.
1617
01:07:40,929 --> 01:07:41,929
Да, там вход до того,
1618
01:07:41,929 --> 01:07:43,929
что они, как я понял,
1619
01:07:43,929 --> 01:07:46,929
они не используют чужие данные вообще.
1620
01:07:46,929 --> 01:07:47,929
Да.
1621
01:07:47,929 --> 01:07:48,929
То есть они на своих учатся.
1622
01:07:48,929 --> 01:07:51,929
Ну и среди инвесторов у них и Google Ventures,
1623
01:07:51,929 --> 01:07:53,929
и Y-комбинатор, и DeepMind даже есть.
1624
01:07:53,929 --> 01:07:55,929
Точнее люди из DeepMind.
1625
01:07:55,929 --> 01:07:57,929
Так что ставки немаленькие.
1626
01:07:59,929 --> 01:08:01,929
Что у нас еще по видео?
1627
01:08:01,929 --> 01:08:03,929
Кстати, о генерации видео
1628
01:08:03,929 --> 01:08:05,929
наконец-то рановый email
1629
01:08:05,929 --> 01:08:08,929
открыл доступ к Gen3 Alpha для всех.
1630
01:08:08,929 --> 01:08:11,929
Примеры Gen3 Alpha, я надеюсь,
1631
01:08:11,929 --> 01:08:12,929
мы все уже видели.
1632
01:08:12,929 --> 01:08:14,929
И как минимум мы про него рассказывали.
1633
01:08:14,929 --> 01:08:19,929
На демках все было супер-пупер красиво.
1634
01:08:19,929 --> 01:08:22,929
На ранних тестерах тоже.
1635
01:08:22,929 --> 01:08:25,929
Но релиз случился.
1636
01:08:25,929 --> 01:08:28,929
Естественно вышло,
1637
01:08:28,929 --> 01:08:30,929
что не у всех получается с первого раза.
1638
01:08:30,929 --> 01:08:33,929
Ну ни у кого не получается с первого раза,
1639
01:08:33,929 --> 01:08:34,929
я так скажу.
1640
01:08:34,929 --> 01:08:35,929
Ну да.
1641
01:08:35,929 --> 01:08:37,929
Это вам предостережение.
1642
01:08:37,929 --> 01:08:39,929
Есть уникумы.
1643
01:08:39,929 --> 01:08:41,929
Там генерация дорогая,
1644
01:08:41,929 --> 01:08:43,929
и, соответственно,
1645
01:08:43,929 --> 01:08:45,929
чтобы получить хоть несколько генераций,
1646
01:08:45,929 --> 01:08:46,929
вам надо заплатить денег.
1647
01:08:46,929 --> 01:08:48,929
Там сразу все под подпиской.
1648
01:08:48,929 --> 01:08:50,929
И там со слов ребят, которые активно пользуются,
1649
01:08:50,929 --> 01:08:52,929
я видел, что хорошая и удачная генерация
1650
01:08:52,929 --> 01:08:54,929
где-то раз на 40 выходит.
1651
01:08:54,929 --> 01:08:56,929
Сколько это в деньгах будет, не помню.
1652
01:08:56,929 --> 01:08:58,929
По-моему, не баснословные бабки,
1653
01:08:58,929 --> 01:08:59,929
но не сильно приятно.
1654
01:08:59,929 --> 01:09:01,929
Хотя те примеры, которые выкатывали,
1655
01:09:01,929 --> 01:09:04,929
видел, может, рекламу Volvo офигительную сделали просто.
1656
01:09:04,929 --> 01:09:05,929
Да, видел.
1657
01:09:05,929 --> 01:09:08,929
Ну то есть там явно сотни генераций были,
1658
01:09:08,929 --> 01:09:10,929
но реклама очень классная вышла, как по мне.
1659
01:09:11,929 --> 01:09:13,929
Вот нужен такой сервис,
1660
01:09:13,929 --> 01:09:17,929
которому нужно будет платить только за удачные генерации.
1661
01:09:17,929 --> 01:09:19,929
Ага, найди таких дурачков.
1662
01:09:21,929 --> 01:09:24,929
И параллельно с Gen 3 Alpha
1663
01:09:24,929 --> 01:09:28,929
также релизнулась система Клинк.
1664
01:09:28,929 --> 01:09:30,929
Сервис Клинк.
1665
01:09:30,929 --> 01:09:31,929
Это китайский сервис,
1666
01:09:31,929 --> 01:09:33,929
мы про него вам рассказывали два выпуска назад,
1667
01:09:33,929 --> 01:09:34,929
в 35-м выпуске.
1668
01:09:34,929 --> 01:09:36,929
Он делает все то же самое,
1669
01:09:36,929 --> 01:09:38,929
генерирует из текста видео,
1670
01:09:38,929 --> 01:09:40,929
очень качественно это делает.
1671
01:09:40,929 --> 01:09:42,929
Но для того, чтобы им пользоваться,
1672
01:09:42,929 --> 01:09:43,929
надо знать китайский,
1673
01:09:43,929 --> 01:09:45,929
потому что сайт на китайском весь.
1674
01:09:45,929 --> 01:09:46,929
Но если вы пользуетесь переводчиками,
1675
01:09:46,929 --> 01:09:47,929
это не проблема.
1676
01:09:47,929 --> 01:09:48,929
Но вот другая проблема в том,
1677
01:09:48,929 --> 01:09:49,929
что нужен телефон китайский,
1678
01:09:49,929 --> 01:09:51,929
это уже большой ограничитель.
1679
01:09:51,929 --> 01:09:52,929
Но тем не менее,
1680
01:09:52,929 --> 01:09:55,929
с Клинком тоже уже интернет полнится примерами,
1681
01:09:55,929 --> 01:09:57,929
они тоже удачные.
1682
01:09:57,929 --> 01:09:59,929
И вот забавный прикол,
1683
01:09:59,929 --> 01:10:02,929
что у Клинка, что у Gen 3 Alpha есть...
1684
01:10:02,929 --> 01:10:05,929
Помнишь, когда выходили первые диффузионки,
1685
01:10:05,929 --> 01:10:07,929
там все были проблемы с тем,
1686
01:10:07,929 --> 01:10:09,929
что не могли пять пальцев нарисовать,
1687
01:10:09,929 --> 01:10:11,929
или текст не могли писать.
1688
01:10:11,929 --> 01:10:16,929
Вот с видеосетями тоже есть такой обобщенный баг.
1689
01:10:16,929 --> 01:10:18,929
Их наверняка не один такой баг,
1690
01:10:18,929 --> 01:10:19,929
но самый забавный,
1691
01:10:19,929 --> 01:10:21,929
который разлетелся сейчас тоже по Твиттерам,
1692
01:10:21,929 --> 01:10:23,929
по Телеграм-группам,
1693
01:10:23,929 --> 01:10:25,929
люди рисуют гимнастов.
1694
01:10:25,929 --> 01:10:27,929
Они делают генерацию с гимнастами.
1695
01:10:27,929 --> 01:10:30,929
И вот с гимнастами вообще не справляются эти нейронки,
1696
01:10:30,929 --> 01:10:31,929
либо со спортсменами.
1697
01:10:31,929 --> 01:10:32,929
Там какой-нибудь бегун,
1698
01:10:32,929 --> 01:10:34,929
которого ноги в землю проваливаются,
1699
01:10:34,929 --> 01:10:36,929
или гимнастка, которая подпрыгивает
1700
01:10:36,929 --> 01:10:37,929
и начинает в воздухе.
1701
01:10:37,929 --> 01:10:39,929
Там просто у нее ноги перетекают в руки,
1702
01:10:39,929 --> 01:10:40,929
руки в ноги.
1703
01:10:40,929 --> 01:10:42,929
И оно выглядит, в принципе, не так кринжово,
1704
01:10:42,929 --> 01:10:44,929
как, помнишь, раньше на первых порах,
1705
01:10:44,929 --> 01:10:47,929
там Gen 2 рисовал пиццу с лицом срастающегося.
1706
01:10:47,929 --> 01:10:49,929
Либо «Любимая невеста Ктулху».
1707
01:10:49,929 --> 01:10:51,929
Либо «Невеста Ктулху», да, классика.
1708
01:10:51,909 --> 01:10:56,709
Оно не так кринжово выглядит, оно выглядит так, что если издалека посмотреть, ты даже может не поймешь подвох,
1709
01:10:56,709 --> 01:11:01,909
а потом такой смотришь, блин, а как это так? Она подпрыгнула, сделала кульбиту, у нее руки вместо ног, а ноги вместо рук.
1710
01:11:01,909 --> 01:11:06,909
Короче, посмотрите с гимнастами видосы, это отдельный жанр искусства.
1711
01:11:06,909 --> 01:11:12,909
Но если так подумать, то уже какие большие скачки в технологии.
1712
01:11:12,909 --> 01:11:17,909
То есть сейчас недавно был Смит, у которого пицца исчезает в лице, и макароны, да.
1713
01:11:17,909 --> 01:11:19,909
А сейчас уже вон что.
1714
01:11:19,909 --> 01:11:21,909
Ну слушай, наши предсказания сбываются.
1715
01:11:21,909 --> 01:11:23,909
Сегодня с гимнастами проблема.
1716
01:11:23,909 --> 01:11:28,909
Мы же с тобой говорили в новогоднем выпуске, сделали ставку на то, что этот год будет годом генеративного видео,
1717
01:11:28,909 --> 01:11:32,909
и к концу года мы получим стриминги какие-нибудь, по-моему так с тобой говорили.
1718
01:11:32,909 --> 01:11:34,909
И я прям когда-то тогда с тобой...
1719
01:11:34,909 --> 01:11:36,909
Ну типа того, да, бесконечный сериал я ждал.
1720
01:11:36,909 --> 01:11:41,909
И когда я с тобой тогда забивался на это, мне казалось, что это самый нереалистичный прогноз.
1721
01:11:41,909 --> 01:11:46,909
А тут глядишь, что с такими темпами действительно мы к концу года получим что-то качественное стриминговое.
1722
01:11:47,909 --> 01:11:50,909
Очень быстро идёт, да, очень быстро.
1723
01:11:50,909 --> 01:11:54,909
Но не у всех идёт хорошо, не у всех, потому что...
1724
01:11:54,909 --> 01:11:57,909
Ой, это моя любимая часть сегодняшнего подкаста.
1725
01:11:57,909 --> 01:12:03,909
Мы в прошлый раз говорили, что Фигма релизнула и функционал.
1726
01:12:03,909 --> 01:12:09,909
Напомним, функционал такой, что ты пишешь текст, какой интерфейс ты хочешь получить,
1727
01:12:09,909 --> 01:12:11,909
и Фигма его рисует по промпту.
1728
01:12:11,909 --> 01:12:14,909
Строит за тебя интерфейс.
1729
01:12:14,909 --> 01:12:16,909
Так вот, Фигма выключила эту функцию.
1730
01:12:16,909 --> 01:12:18,909
Она недолго продержалась.
1731
01:12:18,909 --> 01:12:21,909
И не потому, что она работает плохо,
1732
01:12:21,909 --> 01:12:28,909
а потому что какой-то чувак сказал, напиши мне, пожалуйста, приложение, которое погоду показывает.
1733
01:12:28,909 --> 01:12:30,909
Ну, погодное приложение.
1734
01:12:30,909 --> 01:12:36,909
И Фигма нарисовала ему точь-в-точь приложение, как у Apple на айфоне.
1735
01:12:37,909 --> 01:12:43,909
Прям один в один с закруглениями, с этими классическими, там, со стрелочками и прочим.
1736
01:12:44,909 --> 01:12:45,909
Всё как там.
1737
01:12:45,909 --> 01:12:53,909
И другие пользователи тоже начали замечать, что многие генерации похожи очень сильно на суперпопулярные сервисы.
1738
01:12:54,909 --> 01:13:02,909
И в связи с этим пошёл слушок, что, возможно, Фигма-то обучила свою модель на данных пользователей,
1739
01:13:03,909 --> 01:13:05,909
о чём нет в пользовательском соглашении.
1740
01:13:06,909 --> 01:13:08,909
И вот пока что всё это и отключили.
1741
01:13:08,909 --> 01:13:12,909
Ну, кстати, не факт, что они прямо на данных пользователей учали.
1742
01:13:14,909 --> 01:13:15,909
Посмотрим, что они ответят.
1743
01:13:15,909 --> 01:13:21,909
Они-то отключили, но ещё надо им выдать расширенный ответ, как так получилось.
1744
01:13:21,909 --> 01:13:25,909
Конечно, то, что они резко это отключили, явно намекает на то, что там какие-то проблемки есть.
1745
01:13:26,909 --> 01:13:28,909
Наверное, да.
1746
01:13:31,909 --> 01:13:32,909
Хорошо.
1747
01:13:33,909 --> 01:13:35,909
Ну, бывает, бывает. Будем следить.
1748
01:13:36,909 --> 01:13:38,909
А вот Perplexity тоже не стоит на месте.
1749
01:13:38,909 --> 01:13:48,909
Они обновили свой функционал платной подписки ProSearch, завезли туда некоторые новые фишки,
1750
01:13:48,909 --> 01:13:56,909
типа обработки запросов сложных, рассуждения, улучшили рассуждения в рамках одного диалога
1751
01:13:56,909 --> 01:13:58,909
и добавили интеграцию с Vulfram Alpha.
1752
01:13:58,909 --> 01:13:59,909
Это прям прикольно.
1753
01:13:59,909 --> 01:14:03,909
Теперь там можно прямо математику обсчитывать и графики строить через Vulfram.
1754
01:14:03,909 --> 01:14:06,909
Вообще странно, что с Vulfram так поздно кто-то заинтегрировался,
1755
01:14:06,909 --> 01:14:12,909
потому что кажется, будто бы та самая штука, которая должна хорошо на машинные всякие лмки ложиться.
1756
01:14:15,909 --> 01:14:16,909
Вот.
1757
01:14:18,909 --> 01:14:20,909
Да. Что у нас ещё было?
1758
01:14:20,909 --> 01:14:22,909
Мы сейчас галопом по Европе, потому что много...
1759
01:14:22,909 --> 01:14:26,909
Вообще перед выпуском казалось, что новостей нет, но вот когда сценарий составляли,
1760
01:14:26,909 --> 01:14:29,909
оказалось, что мелких новостей много. Попробуем про всё рассказать.
1761
01:14:33,909 --> 01:14:35,909
Ну что? Что там в Eleven Labs?
1762
01:14:36,909 --> 01:14:42,909
Давай, это больше твоя тема, ты расскажи про Eleven Labs, я лучше расскажу про Minecraft.
1763
01:14:42,909 --> 01:14:44,909
А, кстати, да, ты хорош.
1764
01:14:44,909 --> 01:14:48,909
В Eleven Labs там небольшая новость, но она прикольная своей демкой.
1765
01:14:48,909 --> 01:14:53,909
Они представили инструмент Voice Isolator, который удаляет шумы из записи голоса.
1766
01:14:53,909 --> 01:14:56,909
Таких инструментов вроде уже немало, но хороших на самом деле на рынке маловато,
1767
01:14:56,909 --> 01:15:01,909
и мы сегодня в сервисах вам даже один посоветуем, который я на практике успел использовать.
1768
01:15:01,909 --> 01:15:07,909
Так вот, Voice Isolator, ну, ты говоришь в микрофон, он удаляет шумы, понятно,
1769
01:15:07,909 --> 01:15:09,909
но если вы посмотрите демку, она очень забавная.
1770
01:15:09,909 --> 01:15:12,909
Чувак стоит на крыше, рядом с ним стоит какой-то второй чувак,
1771
01:15:12,909 --> 01:15:16,909
который дует на него с промышленного пылесоса прямо в лицо ему.
1772
01:15:16,909 --> 01:15:18,909
Этот чел что-то там пытается говорить в микрофон,
1773
01:15:18,909 --> 01:15:22,909
и потом Voice Isolator полностью удаляет шум пылесоса.
1774
01:15:22,909 --> 01:15:25,909
Я не успел попробовать, работает ли оно на самом деле так,
1775
01:15:25,909 --> 01:15:27,909
но если да, то это прям тоже очень классный результат.
1776
01:15:28,909 --> 01:15:31,909
Попробуйте, напишите в комментариях на ютубе,
1777
01:15:31,909 --> 01:15:33,909
либо в нашем чате, как у вас там получилось.
1778
01:15:34,909 --> 01:15:37,909
Да, я гадаю, на русском языке, наверное, и не будет работать.
1779
01:15:37,909 --> 01:15:41,909
Вот не факт. Чем дальше, тем лучше эти сервисы с русским работают.
1780
01:15:41,909 --> 01:15:44,909
В сервисах, мы сегодня попозже вам расскажем про один сервис,
1781
01:15:44,909 --> 01:15:46,909
он с русским прям отлично сработал.
1782
01:15:46,909 --> 01:15:50,909
То есть уже времена того, как это работало с Adobe Behind the Speech,
1783
01:15:50,909 --> 01:15:51,909
они вроде как проходят.
1784
01:15:52,909 --> 01:15:55,909
И с языками более-менее популярными, более-менее нормально все работает.
1785
01:15:56,909 --> 01:15:58,909
Так вот, что же там с Майнкрафтом-то случилось?
1786
01:16:00,909 --> 01:16:03,909
В Майнкрафте начали тренировать и агентов.
1787
01:16:04,909 --> 01:16:06,909
Почему это прикольно?
1788
01:16:06,909 --> 01:16:11,909
Потому что Майнкрафт — это достаточно понятная среда для тренировки,
1789
01:16:11,909 --> 01:16:13,909
там очень хорошо настроенная физика,
1790
01:16:14,909 --> 01:16:16,909
при этом система мира построена на кубах.
1791
01:16:17,909 --> 01:16:19,909
Там же все кубики в Майнкрафте, да,
1792
01:16:19,909 --> 01:16:23,909
и поэтому с ними взаимодействовать, скажем так, немножко проще,
1793
01:16:23,909 --> 01:16:27,909
чем с какой-нибудь другой там вселенной вымышленной.
1794
01:16:28,909 --> 01:16:30,909
Но физика при этом там очень крутая.
1795
01:16:30,909 --> 01:16:33,909
И чуваки сделали агента под названием Omni Jarvis,
1796
01:16:33,909 --> 01:16:38,909
который как раз обучился как агент,
1797
01:16:38,909 --> 01:16:41,909
вот в этом самом Майнкрафте он тренировался,
1798
01:16:41,909 --> 01:16:46,909
и может исполнять там всякое.
1799
01:16:47,909 --> 01:16:50,909
То есть ты ему говоришь там, построи то-то, он идет и строит.
1800
01:16:50,909 --> 01:16:53,909
Может под испанец танцевать? Или краковяк?
1801
01:16:54,909 --> 01:16:57,909
Ну танцевать, наверное, танцевать не знаю,
1802
01:16:57,909 --> 01:17:02,909
но ты же знаешь, что в Майнкрафте в том числе, например, можно построить процессор.
1803
01:17:06,909 --> 01:17:10,909
Более того, там даже можно лэмб построить буквально пару недель назад.
1804
01:17:10,909 --> 01:17:13,909
Да, чуваки рассказывали, как чуваки лэмбку,
1805
01:17:13,909 --> 01:17:18,909
и я видел, как чувак построил процессор, графический ускоритель,
1806
01:17:18,909 --> 01:17:24,909
вводил на нем код, сделал дисплей на кубах, на этих майнкрафтских,
1807
01:17:24,909 --> 01:17:26,909
и играл в Майнкрафте в Майнкрафт.
1808
01:17:27,909 --> 01:17:30,909
То есть он внутри Майнкрафта сделал Майнкрафт.
1809
01:17:31,909 --> 01:17:35,909
Ну там, с правильностью сказать, там есть ограничения.
1810
01:17:37,909 --> 01:17:40,909
Я вот сказал, что они лэмбку сделали, на самом деле не лэмбку,
1811
01:17:40,909 --> 01:17:45,909
а там сделали сетку, которая распознает буквы.
1812
01:17:45,909 --> 01:17:49,909
Ты бегаешь по специальному полю персонажа, например, в форме буквы 66,
1813
01:17:49,909 --> 01:17:50,909
и оно распознает букву.
1814
01:17:50,909 --> 01:17:53,909
Наверное, лэмбку там заимплементировать было бы сложновато,
1815
01:17:53,909 --> 01:17:55,909
потому что надо сильно больше элементов.
1816
01:17:55,909 --> 01:18:00,909
Но в целом, этот агент Omnijarvis прикольно,
1817
01:18:00,909 --> 01:18:04,909
потому что Майнкрафт же это суперконтролируемая, как ты правильно сказал,
1818
01:18:04,909 --> 01:18:07,909
несложная среда, в которой можно прямо тестировать агентов.
1819
01:18:07,909 --> 01:18:09,909
Агенты — это новый тренд.
1820
01:18:09,909 --> 01:18:12,909
И мне удивительно будет, если их на Майнкрафте первой версии хорошо натаскают,
1821
01:18:12,909 --> 01:18:14,909
а потом уже в реальный мир.
1822
01:18:14,909 --> 01:18:16,909
Или в какую-нибудь генерацию NVIDIA.
1823
01:18:16,909 --> 01:18:20,909
Будет прикольно, если NVIDIA тренировала своих агентов в Майнкрафте,
1824
01:18:20,909 --> 01:18:21,909
мы просто не знаем.
1825
01:18:23,909 --> 01:18:24,909
Вполне возможно.
1826
01:18:26,909 --> 01:18:27,909
Андрей Карпатый.
1827
01:18:27,909 --> 01:18:28,909
Повезло к твоему любимчику.
1828
01:18:28,909 --> 01:18:29,909
Конечно, конечно.
1829
01:18:29,909 --> 01:18:32,909
Андрей Карпатый, он в принципе любимчик многих.
1830
01:18:33,909 --> 01:18:35,909
Он обычно курсы выкатывает,
1831
01:18:35,909 --> 01:18:39,909
а тут он выступил на церемонии награждения победителя одного Яихокатона
1832
01:18:39,909 --> 01:18:41,909
и задвинул прикольную парадигму.
1833
01:18:41,909 --> 01:18:43,909
Он там много чего рассказывал,
1834
01:18:43,909 --> 01:18:45,909
можно посмотреть, у него там часовое выступление.
1835
01:18:45,909 --> 01:18:49,909
И в частности он говорил про LLM OS,
1836
01:18:49,909 --> 01:18:52,909
то есть Large Language Model Операционная Система.
1837
01:18:53,909 --> 01:18:56,909
И суть не в том, что он там разработал какую-то операционку новую,
1838
01:18:56,909 --> 01:19:00,909
суть в том, что он сравнивает LLM-ки с процессорами.
1839
01:19:00,909 --> 01:19:02,909
Он говорит, что представьте, что LLM в будущем,
1840
01:19:02,909 --> 01:19:05,909
мощный LLM, более мощный, чем сейчас,
1841
01:19:05,909 --> 01:19:08,909
по факту будут софтверными процессорами,
1842
01:19:08,909 --> 01:19:11,909
на базе которых будут запускаться все задачи.
1843
01:19:11,909 --> 01:19:13,909
Байтами там условно будут токены,
1844
01:19:13,909 --> 01:19:16,909
мы загружаем туда понимание environment,
1845
01:19:16,909 --> 01:19:19,909
что-то типа World Model, да?
1846
01:19:20,909 --> 01:19:22,909
Загружаем туда, например, описание программы
1847
01:19:22,909 --> 01:19:24,909
и говорим, как надо действовать.
1848
01:19:24,909 --> 01:19:27,909
И на базе LLM-ки все вычисления производятся.
1849
01:19:28,909 --> 01:19:31,909
И он эту штуку, эту концепцию назвал LLM OS,
1850
01:19:31,909 --> 01:19:33,909
Операционной Системой на базе LLM,
1851
01:19:33,909 --> 01:19:35,909
и в принципе, ну, кто-то скажет ерунда,
1852
01:19:35,909 --> 01:19:38,909
а мне прям понравилось, прям идея интересная.
1853
01:19:39,909 --> 01:19:41,909
Да, мне тоже такое нравится.
1854
01:19:41,909 --> 01:19:44,909
Это же по сути на уровне с этими World Model,
1855
01:19:44,909 --> 01:19:47,909
когда у тебя операционный режим,
1856
01:19:48,909 --> 01:19:50,909
интерфейс на лету.
1857
01:19:50,909 --> 01:19:53,909
Навряд ли там можно будет все программы запустить.
1858
01:19:53,909 --> 01:19:56,909
Понятно, что ты по Zoom не созвонишься
1859
01:19:56,909 --> 01:19:59,909
с виртуальным Витей или виртуальным Лешей,
1860
01:19:59,909 --> 01:20:01,909
там тебе надо с реальными людьми разговаривать.
1861
01:20:01,909 --> 01:20:04,909
Но генерация какого-нибудь контента,
1862
01:20:04,909 --> 01:20:07,909
аудио, видео, игрового контента на таких операционках
1863
01:20:07,909 --> 01:20:10,909
вообще, мне кажется, в будущем могут состояться.
1864
01:20:10,909 --> 01:20:12,909
Ну да, да. Вот на них как раз и будут
1865
01:20:12,909 --> 01:20:15,909
те самые бесконечные сериалы появляться.
1866
01:20:16,909 --> 01:20:18,909
Сто процентов.
1867
01:20:19,909 --> 01:20:22,909
Ну что, а что еще у нас? Все.
1868
01:20:24,909 --> 01:20:29,909
И теперь мы переходим к науке и технике.
1869
01:20:30,909 --> 01:20:32,909
И начнем мы с новостей.
1870
01:20:32,909 --> 01:20:35,909
Мы не так давно рассказывали про робота Ричи-2
1871
01:20:35,909 --> 01:20:38,909
от Hygen Face и Polin Robotics.
1872
01:20:38,909 --> 01:20:41,909
Возможно, он вам запомнился тем, что он стремно выглядит.
1873
01:20:41,909 --> 01:20:43,909
Ужасно просто.
1874
01:20:43,909 --> 01:20:45,909
Может быть, да.
1875
01:20:45,909 --> 01:20:47,909
Но новость в чем?
1876
01:20:47,909 --> 01:20:50,909
Новость не про Ричи-2, а про исследователей из Стэнфорда,
1877
01:20:50,909 --> 01:20:54,909
которые выложили инструкции,
1878
01:20:54,909 --> 01:20:59,909
как создать робота под названием Human Plus.
1879
01:21:00,909 --> 01:21:02,909
Это open-source робот, собственно говоря,
1880
01:21:02,909 --> 01:21:06,909
который тоже по принципу Ричи-2 работает.
1881
01:21:06,909 --> 01:21:08,909
Его можно собрать самостоятельно.
1882
01:21:08,909 --> 01:21:10,909
И в чем прикол? Что этот робот Human Plus,
1883
01:21:10,909 --> 01:21:15,909
он может обучаться движением через наблюдение.
1884
01:21:15,909 --> 01:21:18,909
То есть он на тебя смотрит, ты ему машешь рукой,
1885
01:21:18,909 --> 01:21:22,909
и он, по идее, этому учится и тоже машет рукой тебе в ответ.
1886
01:21:26,909 --> 01:21:27,909
Это все?
1887
01:21:27,909 --> 01:21:29,909
Что ты хотел сказать?
1888
01:21:29,909 --> 01:21:31,909
Я...
1889
01:21:31,909 --> 01:21:34,909
У меня денег нет, но куда остановиться в очередь?
1890
01:21:34,909 --> 01:21:36,909
Я хочу.
1891
01:21:37,909 --> 01:21:39,909
Да, там же они еще...
1892
01:21:39,909 --> 01:21:41,909
Да, то есть было бы время,
1893
01:21:41,909 --> 01:21:44,909
потому что так-то они еще выложили список компонентов,
1894
01:21:44,909 --> 01:21:45,909
с чего он сделан.
1895
01:21:45,909 --> 01:21:47,909
Ты его, в принципе, можешь сам собрать.
1896
01:21:47,909 --> 01:21:49,909
Да, сам в этом смысл, да.
1897
01:21:49,909 --> 01:21:51,909
Да, да. Open-source на Human Plus.
1898
01:21:51,909 --> 01:21:54,909
Ну и выглядит он на самом деле.
1899
01:21:54,909 --> 01:21:56,909
Он выглядит не как человек, он выглядит как робот,
1900
01:21:56,909 --> 01:21:58,909
но он не выглядит ужасающе.
1901
01:21:58,909 --> 01:22:01,909
Вот эффекта зловещей Дарины почему-то на Human Plus я вообще не встретил.
1902
01:22:05,909 --> 01:22:08,909
Ну, пока вы откладываете денежки и смотрите,
1903
01:22:08,909 --> 01:22:10,909
что там надо купить для того, чтобы собрать Human Plus,
1904
01:22:10,909 --> 01:22:13,909
расскажу вам про ученых из Нидерландского университета
1905
01:22:13,909 --> 01:22:16,909
с очень сложным названием, даже не буду пытаться прочитать.
1906
01:22:16,909 --> 01:22:19,909
Там с N начинается, N заканчивается.
1907
01:22:19,909 --> 01:22:20,909
В чем суть?
1908
01:22:20,909 --> 01:22:24,909
Ребята с помощью нейрошунта смогли читать мысли обезьянок.
1909
01:22:26,909 --> 01:22:29,909
Вот прям всунули, прям как Илону Ларионовичу Масковичу,
1910
01:22:29,909 --> 01:22:31,909
человеку в голову, так они обезьянку...
1911
01:22:31,909 --> 01:22:32,909
О чем думают обезьянки?
1912
01:22:32,909 --> 01:22:35,909
Ну, там есть трюк, конечно.
1913
01:22:35,909 --> 01:22:38,909
Они не мысли обезьянок на самом-то деле исследовали,
1914
01:22:38,909 --> 01:22:41,909
они исследовали, насколько можно с помощью нейронок
1915
01:22:43,909 --> 01:22:45,909
предсказывать то, что обезьяна видит.
1916
01:22:45,909 --> 01:22:49,909
Они ей показывали картинку, снимали сигнал
1917
01:22:49,909 --> 01:22:53,909
и нейронками, докручивая его, добивались какого-то...
1918
01:22:54,909 --> 01:22:56,909
какого-то выходного изображения.
1919
01:22:56,909 --> 01:23:00,909
Мы такие эксперименты уже видели, и там все было очень плохо.
1920
01:23:00,909 --> 01:23:03,909
Да, что-то было с МРТ и человеком.
1921
01:23:03,909 --> 01:23:05,909
Да, да, а тут шум, тут не МРТ.
1922
01:23:05,909 --> 01:23:07,909
И качество прямо офигительное.
1923
01:23:07,909 --> 01:23:10,909
То есть если вы пройдете по самой работе,
1924
01:23:10,909 --> 01:23:12,909
посмотрите на то, что у них получилось,
1925
01:23:12,909 --> 01:23:16,909
там работа очень такая развесистая с примерами,
1926
01:23:16,909 --> 01:23:19,909
то попадание, ну, конечно, не стопроцентное,
1927
01:23:19,909 --> 01:23:22,909
но условно, если это какой-нибудь паук,
1928
01:23:22,909 --> 01:23:24,909
то на выходе мы тоже имеем паука.
1929
01:23:24,909 --> 01:23:27,909
Да, у него больше ножек, но по цвету, по композиции,
1930
01:23:27,909 --> 01:23:30,909
по количеству каких-то объектов совпадают очень круто.
1931
01:23:30,909 --> 01:23:32,909
То есть не стопроцентное попадание,
1932
01:23:32,909 --> 01:23:37,909
процентов 80, но очень четко передает суть.
1933
01:23:37,909 --> 01:23:41,909
Единственное, что все, что эти нейросеточки рисуют на выходе,
1934
01:23:41,909 --> 01:23:43,909
вот оно все один в один похоже на то,
1935
01:23:43,909 --> 01:23:45,909
что мне в снах страшно снится.
1936
01:23:45,909 --> 01:23:47,909
То есть, вы знаете, в страшных снах,
1937
01:23:47,909 --> 01:23:51,909
когда спишь, да, у тебя там какие-нибудь хрени такие бывают,
1938
01:23:51,909 --> 01:23:54,909
которых в жизни нет, и они из-за этого противными кажутся,
1939
01:23:54,909 --> 01:23:57,909
такими очень гадкими, неестественными.
1940
01:23:57,909 --> 01:23:59,909
Вот тут примерно тот же эффект.
1941
01:23:59,909 --> 01:24:01,909
Что-то похоже на зловещую долину,
1942
01:24:01,909 --> 01:24:04,909
но в отношении, в принципе, к физическому миру,
1943
01:24:04,909 --> 01:24:06,909
а не к человеку.
1944
01:24:06,909 --> 01:24:08,909
Но результат прям вау.
1945
01:24:08,909 --> 01:24:10,909
Если это делают шунтом на обезьянках,
1946
01:24:10,909 --> 01:24:13,909
я думаю, на человеке маск тоже может это делать,
1947
01:24:13,909 --> 01:24:18,909
у них недавно был стрим у нейролинка,
1948
01:24:18,909 --> 01:24:21,909
они рассказывали, там часовой стрим в Твиттере,
1949
01:24:21,909 --> 01:24:23,909
можете посмотреть, они рассказывают,
1950
01:24:23,909 --> 01:24:27,909
что они чуть ли не телепатические способности уже начинают тестировать
1951
01:24:27,909 --> 01:24:33,909
и пытаются научить людей управлять их роботом,
1952
01:24:33,909 --> 01:24:36,909
как он там называется, Атласом, по-моему.
1953
01:24:36,909 --> 01:24:41,909
Атлас, да, которого нормально еще не презентовали особо нигде.
1954
01:24:41,909 --> 01:24:43,909
Да, да.
1955
01:24:43,909 --> 01:24:50,909
Вот такие вот у нас продвижения с шунтами в мозгах матрицы, как есть.
1956
01:24:50,909 --> 01:24:55,909
Так, от шунтов в мозгах перейдем к, наверное,
1957
01:24:55,909 --> 01:24:59,909
самой неожиданной части рубрики «Наука и техника»,
1958
01:24:59,909 --> 01:25:01,909
по крайней мере для меня неожиданная,
1959
01:25:01,909 --> 01:25:03,909
она будет про OpenAI.
1960
01:25:03,909 --> 01:25:08,909
OpenAI запартнерился с лабораторией под названием L.A.N.L.,
1961
01:25:08,909 --> 01:25:11,909
Национальная лаборатория Лос-Алмос.
1962
01:25:11,909 --> 01:25:15,909
Здесь, возможно, у кого-то уже что-то щелкнуло в памяти,
1963
01:25:15,909 --> 01:25:18,909
но если нет, то я дальше расскажу.
1964
01:25:18,909 --> 01:25:23,909
Короче, студенты этой лаборатории,
1965
01:25:23,909 --> 01:25:25,909
студенты и работники этой лаборатории
1966
01:25:25,909 --> 01:25:28,909
будут распользовать новейшие GPT-4.0,
1967
01:25:28,909 --> 01:25:31,909
даже еще те версии, которые в паблик не релизнулись,
1968
01:25:31,909 --> 01:25:35,909
для того, чтобы помогать себе в работе.
1969
01:25:36,909 --> 01:25:41,909
То есть будет модель визуально следить за аномалиями
1970
01:25:41,909 --> 01:25:43,909
в культивировании клеток, предупреждать о том,
1971
01:25:43,909 --> 01:25:45,909
когда нужно выпишаться человеку,
1972
01:25:45,909 --> 01:25:48,909
и в других биологических исследованиях
1973
01:25:48,909 --> 01:25:50,909
будет использоваться как такой,
1974
01:25:50,909 --> 01:25:52,909
ну, не как полноценный ученый,
1975
01:25:52,909 --> 01:25:53,909
но как своего рода лаборант,
1976
01:25:53,909 --> 01:25:58,909
скорее, такой вот искусственно-интеллектуальный лаборант,
1977
01:25:58,909 --> 01:26:00,909
который будет помогать людям.
1978
01:26:00,909 --> 01:26:03,909
И, казалось бы, круто,
1979
01:26:03,909 --> 01:26:05,909
больше клеток накультивируем здоровых,
1980
01:26:05,909 --> 01:26:07,909
но все бы ничего,
1981
01:26:07,909 --> 01:26:10,909
но вот эта лаборатория Лос-Альмас
1982
01:26:10,909 --> 01:26:13,909
это самая лаборатория,
1983
01:26:13,909 --> 01:26:17,909
в которой атомную бомбу сделали в свое время
1984
01:26:17,909 --> 01:26:20,909
в рамках Манхэттского проекта.
1985
01:26:20,909 --> 01:26:23,909
И они утверждают, что им нужен
1986
01:26:23,909 --> 01:26:26,909
вот новейший черед GPT-4.0
1987
01:26:26,909 --> 01:26:29,909
исключительно в биологических исследованиях
1988
01:26:29,909 --> 01:26:30,909
и мирных целях,
1989
01:26:30,909 --> 01:26:34,909
прям было подчеркнуто, в мирных целях.
1990
01:26:34,909 --> 01:26:39,909
Не знаю, совпадение, случайность не случайна, конечно.
1991
01:26:39,909 --> 01:26:41,909
Не хочется в это верить.
1992
01:26:41,909 --> 01:26:46,909
Ну, такое, такое.
1993
01:26:46,909 --> 01:26:50,909
Уже ж было много в свое время новостей,
1994
01:26:50,909 --> 01:26:53,909
что ЛМКи могут там всякие отравляющие вещества придумывать,
1995
01:26:53,909 --> 01:26:58,909
яды и прочее.
1996
01:26:58,909 --> 01:27:01,909
Блин, стрёмно это что-то с той точки зрения,
1997
01:27:01,909 --> 01:27:04,909
что мы будто бы в комиксе каком-то живем.
1998
01:27:04,909 --> 01:27:07,909
Понятно, что это просто совпадение.
1999
01:27:07,909 --> 01:27:11,909
А с другой стороны, если там что-то такое произойдет,
2000
01:27:11,909 --> 01:27:12,909
то все же будут говорить,
2001
01:27:12,909 --> 01:27:14,909
вот, вот, вы что, не видели?
2002
01:27:14,909 --> 01:27:17,909
Вот оно ж, вот, там же ядерка была,
2003
01:27:17,909 --> 01:27:19,909
вот поэтому, ну что?
2004
01:27:19,909 --> 01:27:20,909
Ну, да.
2005
01:27:20,909 --> 01:27:22,909
Это, конечно, странно.
2006
01:27:22,909 --> 01:27:25,909
Но, с другой стороны, лаборатория-то,
2007
01:27:25,909 --> 01:27:27,909
серьезная лаборатория,
2008
01:27:27,909 --> 01:27:29,909
может быть, и неплохо, что они будут внедрять
2009
01:27:29,909 --> 01:27:34,909
жпти для улучшения лабораторных экспериментов.
2010
01:27:34,909 --> 01:27:39,909
Но новость забавная.
2011
01:27:39,909 --> 01:27:44,909
Хорошо, переходим к закону и порядку.
2012
01:27:44,909 --> 01:27:47,909
Закон и порядок.
2013
01:27:47,909 --> 01:27:51,909
Баллотирующийся на место мэра Виктор,
2014
01:27:51,909 --> 01:27:53,909
но не наш Виктор, пока что не наш.
2015
01:27:53,909 --> 01:27:56,909
Я надеюсь, никогда не наш.
2016
01:27:56,909 --> 01:27:58,909
Ну, я не знаю, ты же не планируешь в политику,
2017
01:27:58,909 --> 01:27:59,909
нафиг это все, да?
2018
01:27:59,909 --> 01:28:00,909
В смысле, нафиг это болото?
2019
01:28:00,909 --> 01:28:02,909
Нет, не собирался.
2020
01:28:02,909 --> 01:28:03,909
Важно иметь гражданскую позицию,
2021
01:28:03,909 --> 01:28:04,909
но в политику можно не идти.
2022
01:28:04,909 --> 01:28:08,909
Так вот, баллотирующийся на место мэра
2023
01:28:08,909 --> 01:28:11,909
одного из штатов США Виктор Миллер,
2024
01:28:11,909 --> 01:28:15,909
очень американская фамилия,
2025
01:28:15,909 --> 01:28:17,909
короче, в рамках предвыборной кампании
2026
01:28:17,909 --> 01:28:21,909
заявил, что вместо него будет решение
2027
01:28:21,909 --> 01:28:24,909
принимать ИАИ-система,
2028
01:28:24,909 --> 01:28:27,909
чем очень хайпанул, растиражировался
2029
01:28:27,909 --> 01:28:29,909
очень большим количеством статей.
2030
01:28:29,909 --> 01:28:32,909
ИАИ-систему он это назвал нескромно,
2031
01:28:32,909 --> 01:28:34,909
очень скромно, ВИК.
2032
01:28:34,889 --> 01:28:42,489
В честь себя любимого, Virtual Integrated Citizen, построена она, по его словам, на базе GPT-4.
2033
01:28:42,489 --> 01:28:45,289
Скорее всего, GPT-с просто, чувак, слепил на скорую руку.
2034
01:28:46,569 --> 01:28:52,569
И, естественно, к нему пришли с вопросами, к нему пришли с вопросами много кто.
2035
01:28:52,569 --> 01:28:56,009
Во-первых, к нему пришел с вопросами секретарь штата Вайоминг и сказал,
2036
01:28:56,009 --> 01:29:01,169
а вы там не припухли-то совсем, у нас как бы нельзя, чтобы кандидатами были я и система.
2037
01:29:01,889 --> 01:29:12,129
На что Виктор, конечно, мог бы возразить, что я ж не я и система, вместо меня просто решение будут принимать, ну, камон, ты политик, твоя работа — решение принимать, вместо тебя ее будет я и система делать.
2038
01:29:12,129 --> 01:29:14,369
Поэтому там сейчас разбирательство.
2039
01:29:15,129 --> 01:29:22,569
Ну, а во-вторых, OpenAI как бы не сильно-то разрешает свои модели использовать для политических компаний, потому что потом OpenAI придут и по попе настучат.
2040
01:29:23,649 --> 01:29:30,249
Соответственно, тейк хороший, заявочка хорошая, но Виктора обложили по всем параметрам.
2041
01:29:30,249 --> 01:29:42,169
Пока что Виктор вроде как ничего публично не заявлял, ну, либо мы не видели, но когда вот на него это все свалилось, он сказал, что все, отстаньте от меня, я пойду попробую ламу третью прикрутить, чтобы не было никаких проблем.
2042
01:29:43,289 --> 01:29:49,649
Что вообще не говорит как-то избавиться от того, что ему секретарь штата сказал, что, чувак, ты вообще не по понятиям все делаешь.
2043
01:29:50,649 --> 01:30:08,649
Да, но при этом, понимаешь, чувак открыто заявил, что, знаете, ИИТа умнее большинства политиков, и меня в том числе, поэтому пускай он, пускай GPT и всякие мерзкие решения за меня принимает.
2044
01:30:10,649 --> 01:30:16,649
Да. Что у нас еще было в законе и порядке, Витя? Что там в Японии?
2045
01:30:16,649 --> 01:30:20,649
В законе и порядке? Блин, я думал, мы побольше поговорим про то, что...
2046
01:30:20,649 --> 01:30:21,649
Ты хочешь про Виктора поговорить?
2047
01:30:21,649 --> 01:30:22,649
...GPT может быть хорошим мэром.
2048
01:30:22,649 --> 01:30:32,649
Ой, да ну не. Ну, окей, типа, GPT может быть хорошим мэром, конечно, но не в текущем его исполнении, мне кажется, нет?
2049
01:30:33,649 --> 01:30:36,649
Почему ты так думаешь? Типа, боишься, что контекст потеряется быстро?
2050
01:30:36,649 --> 01:30:47,649
Ну, у него с целеполаганием, с ризнингом все сложно, плохо, я бы сказал. Как можно в такой системе выдавать наводку решения, связанные с человеческими жизнями?
2051
01:30:47,649 --> 01:30:50,649
Я не знаю, представите, как некоторые мэры принимают решения...
2052
01:30:51,649 --> 01:30:55,649
Не, ну это понятно, что большинство таких людей можно было бы заменить, но все равно...
2053
01:30:56,649 --> 01:31:05,649
Я уверен, что будущее за тем, что все AI-системы будут как раз-таки делаться для того, чтобы решения быстро применять.
2054
01:31:05,649 --> 01:31:15,649
И там гонка США и Китая, она скорее не в том, чтобы сделать как можно более крутой AI, а чтобы сделать системы, которые будут быстро принимать решения, быстрее людей.
2055
01:31:16,649 --> 01:31:34,649
Но, блин, не знаю, я работаю с GPT каждый день, мне кажется, что даже если эти системы могут уже применять решения, то нужны очень хорошие руки, некривые, у тех людей, которые настроят эти системы, чтобы они принимали хоть какие-то решения.
2056
01:31:34,649 --> 01:31:40,649
Все равно эти решения надо супервазить. Вот как-то так у меня в голове сложилось.
2057
01:31:40,649 --> 01:31:44,649
Это да, это да. Блин, ну это просто была бы такая, не знаю...
2058
01:31:44,649 --> 01:31:50,649
Тогда если бы он стал мэром и начал бы это использовать, у нас тогда была бы плюс одна новость для этики.
2059
01:31:51,649 --> 01:32:02,649
А в чем этика-то? Этично ли, чтобы AI-системы принимали решения, но если они человеком контролируются в конечном итоге, то какая тут этика? Человек все равно одобряет.
2060
01:32:03,649 --> 01:32:09,649
Ну а прикинь, GPT ему что-нибудь суперстранное насоветовал, все равно это применял.
2061
01:32:09,649 --> 01:32:16,649
Ну тогда судить будем человека, который не разобрался и решил, что все это правильно.
2062
01:32:17,649 --> 01:32:22,649
Или ты надеешься, что будут системы, которые будут сами все принимать без людей, все решения?
2063
01:32:23,649 --> 01:32:32,649
Я надеюсь, что когда-нибудь будет такой эксперимент в какой-нибудь маленькой деревушке, где городским старостой изберут и агента без человека.
2064
01:32:33,649 --> 01:32:40,649
Ты же понимаешь, что мы тогда становимся подопытными кроликами в руках ИАЭ. Не сильно бы хотелось.
2065
01:32:41,649 --> 01:32:45,649
Ну тогда не в своей деревне, а в чужой деревне.
2066
01:32:46,649 --> 01:32:54,649
Лучше всего в ИАЭ-деревне. ИИ становится городским старостой в социуме среди других ИИ.
2067
01:32:55,649 --> 01:33:01,649
И тут мы уже приходим к гражданским правам ИАЭ, к тому, как может существовать с двумя сообществами.
2068
01:33:02,649 --> 01:33:12,649
Просто сейчас мы управляем ИАЭ. И ИАЭ вроде как пофиг, потому что у него нет там ряда характеристик, которые бы дали ему возможность быть не пофиг.
2069
01:33:13,649 --> 01:33:14,649
Когда у него появятся такие элементы...
2070
01:33:15,649 --> 01:33:22,649
Будет ли это ИАЭ-деревня, ИАЭ-пацаны, которые будут драться с ИАЭ-пацанами из соседней деревни, как думаешь?
2071
01:33:22,649 --> 01:33:33,649
Конечно, бойс. Такие орки. Оркоподобные роботы. Знаешь, такими этими латами, такими брутальными, неотёсанными.
2072
01:33:34,649 --> 01:33:42,649
Типа со штыками железными, торчащими во все стороны. Типа как из безумного Макса. Безумного Маска.
2073
01:33:43,649 --> 01:33:44,649
Безумный Маск.
2074
01:33:44,649 --> 01:33:47,649
Безумный Маск. Новая часть так будет называться.
2075
01:33:48,649 --> 01:33:56,649
Ну окей. Ладно, Алексей, нет у вас сегодня желания фатализировать ИАЭ-новости? Я вас услышал.
2076
01:33:57,649 --> 01:33:58,649
Ну чего, подожди, у нас ещё есть рубрика Этика.
2077
01:33:59,649 --> 01:34:05,649
Давай попробуем раскачать тебя следующей новостью.
2078
01:34:06,649 --> 01:34:11,649
Минобороны Японии опубликовала политику по использованию искусственного интеллекта в военных целях,
2079
01:34:12,649 --> 01:34:24,649
которая включает в себя политику по обнаружению цели с помощью ИАЭ, сбору разведданных и управление беспилотными системами с помощью ИАЭ.
2080
01:34:24,649 --> 01:34:36,649
Конечно, там прям подчеркнуто, что вообще-то человек всё равно будет принимать финальные решения, у них не будет каких-то автономных систем с ИАЭ,
2081
01:34:37,649 --> 01:34:42,649
то есть не будет ракеты, которая сама принимает полностью от начала до конца решение, где ей взорваться.
2082
01:34:43,649 --> 01:34:49,649
Но тем не менее, тем не менее, Япония отмечает, что вообще-то уже надо было давно это сделать,
2083
01:34:49,649 --> 01:34:55,649
потому что есть как бы США и Китай, которые сейчас занимаются тем же самым.
2084
01:34:57,649 --> 01:35:02,649
Ну, мне кажется, это вот, кстати, созвучная новость предыдущей, потому что это тоже про принятие решений.
2085
01:35:03,649 --> 01:35:06,649
Тут уже конкретно на весах стоит человеческая жизнь.
2086
01:35:09,649 --> 01:35:15,649
Ну, конкретно жизнь условного врага, что, наверное, по меркам вояк немножко другое.
2087
01:35:16,649 --> 01:35:21,649
Есть такое. На весах. Прикольно, да?
2088
01:35:22,649 --> 01:35:33,649
Не знаю. Я ещё раз напомню, что меня жутко эти новости раньше пугали, когда вояки так открыто рассказывали про свои разработки.
2089
01:35:34,649 --> 01:35:43,649
Сейчас я думаю, что в принципе хорошо, что рассказывают, но, учитывая, что это военные, наверное, надо умножать это всё x10, и вот там где-то будет реальность.
2090
01:35:44,649 --> 01:35:51,649
То есть, если они говорят, что они будут разрабатывать системы, которые там беспилотными системами управляют,
2091
01:35:52,649 --> 01:35:57,649
то, скорее всего, у них эти системы уже есть, уже натренированы, и, возможно, даже иногда они сами принимают решения.
2092
01:36:00,649 --> 01:36:05,649
То есть, если говорят, что они точно не будут принимать решения, то, скорее всего, будут.
2093
01:36:06,649 --> 01:36:10,649
Уже. Ну, опять, это всё про скорость реакции.
2094
01:36:10,649 --> 01:36:18,649
То есть, это не про то, что вояки такие прошаренные хотят использовать технологию первыми, потому что технология суперкрутая.
2095
01:36:19,649 --> 01:36:28,649
Камон, ТЛМки — это нейросети, которые, ну, пока что достаточно на низком уровне интеллигенс-развития.
2096
01:36:29,649 --> 01:36:31,649
Интеллигенс, с точки зрения английского языка.
2097
01:36:32,649 --> 01:36:40,649
И там не надо ждать каких-то суперкрутых фич, которые вот именно вояки увидели в этих системах, смогли внедрить, а сообщество опенсорственно не увидело.
2098
01:36:41,649 --> 01:36:45,649
То есть, у них такие же инструменты, наверное, как и у нас. Хотелось бы верить.
2099
01:36:46,649 --> 01:36:50,649
Если исходить из теории, что у них такие же инструменты, как и у нас, как и у сообщества,
2100
01:36:51,649 --> 01:36:56,649
то единственная причина применять эти системы — это исключительно либо скорость принятия решений,
2101
01:36:56,649 --> 01:37:03,649
потому что человек где-то недосмотрел, где-то не увидел, где-то мораль попытался включить и не успел сделать вовремя решение,
2102
01:37:04,649 --> 01:37:09,649
либо, как тут, кстати, в статье написано, это увеличение масштабов и объемов.
2103
01:37:10,649 --> 01:37:14,649
Словно один оператор управляет одним дроном, а один оператор вместе с ИАЕМ управляет стаей дронов.
2104
01:37:15,649 --> 01:37:20,649
Соответственно, меньше операторов надо, а у них есть конкретные проблемы с наймом в армию.
2105
01:37:21,649 --> 01:37:24,649
Вот, две проблемы — скорость решения и масштабирование.
2106
01:37:25,649 --> 01:37:28,649
Вот это они пытаются решать, это у них, видимо, получается.
2107
01:37:32,649 --> 01:37:34,649
С третьей стороны, а где Япония это всё тестирует?
2108
01:37:35,649 --> 01:37:40,649
Вот они, типа, беспилотные системы делают, анализ-развед данных, обнаружение цели.
2109
01:37:41,649 --> 01:37:42,649
Но Япония, вроде, активно нигде не воюет.
2110
01:37:43,649 --> 01:37:44,649
У меня вот это тоже немножко смутило.
2111
01:37:45,649 --> 01:37:48,649
Ну, надеюсь, в каких-нибудь полигонах, там, я не знаю, типа того.
2112
01:37:49,649 --> 01:37:50,649
Ну, а чтобы что?
2113
01:37:51,649 --> 01:37:54,649
То есть явно же есть намек на то, что они это хотят где-то использовать.
2114
01:37:55,649 --> 01:37:58,649
У меня вопросов бы не было, если бы они, я, внедряли в систему обороны.
2115
01:37:59,649 --> 01:38:00,649
Как бы страны строят обороны, понятно.
2116
01:38:01,649 --> 01:38:02,649
А тут...
2117
01:38:03,649 --> 01:38:06,649
Ну, опять, гонка вооружений, чтобы показать миру, что мы можем.
2118
01:38:07,649 --> 01:38:08,649
И вы тоже, давайте, двигайтесь.
2119
01:38:09,649 --> 01:38:10,649
Не знаю. Не знаю.
2120
01:38:11,649 --> 01:38:12,649
Меня эта военная тема удручает, короче.
2121
01:38:12,649 --> 01:38:13,649
Угу.
2122
01:38:15,649 --> 01:38:19,649
Ну, да. Да, это большой вопрос, где будет использоваться.
2123
01:38:20,649 --> 01:38:21,649
Дроны-сталкеры.
2124
01:38:27,649 --> 01:38:28,649
Всё по-тараковскому, да.
2125
01:38:29,649 --> 01:38:30,649
Всё по-тараковскому.
2126
01:38:31,649 --> 01:38:36,649
Ладно. Какие-то у нас сегодня законы порядок на грани этики, я так скажу.
2127
01:38:37,649 --> 01:38:40,649
Да, да, да. Да и наука и техника тоже.
2128
01:38:40,649 --> 01:38:41,649
Ну, есть такое.
2129
01:38:42,649 --> 01:38:43,649
Давай, наверное, к сервисам и ссылкам.
2130
01:38:45,649 --> 01:38:46,649
Давай, давай.
2131
01:38:47,649 --> 01:38:48,649
У нас их много.
2132
01:38:49,649 --> 01:38:50,649
Сегодня рубрика особенно большая.
2133
01:38:51,649 --> 01:38:54,649
А ты хочешь рассказать про тот инструмент, про который мы с тобой общались или не сегодня?
2134
01:38:57,649 --> 01:38:58,649
А про какой инструмент мы общались?
2135
01:38:59,649 --> 01:39:02,649
А вот давай мы вспомним, не называя его, потому что вдруг мы не будем по нему рассказывать.
2136
01:39:03,649 --> 01:39:05,649
Который ни ты, ни я не потестировали два дня назад.
2137
01:39:06,649 --> 01:39:07,649
Который ты переносил.
2138
01:39:08,649 --> 01:39:09,649
А-а-а.
2139
01:39:10,649 --> 01:39:11,649
Не-не-не, тогда не надо.
2140
01:39:12,649 --> 01:39:13,649
Не будем сегодня, ну окей.
2141
01:39:14,649 --> 01:39:15,649
Ну тогда действительно, у нас сервисы и ссылки сегодня быстрые.
2142
01:39:16,649 --> 01:39:21,649
Вообще мы на протяжении выпуска много про модельки рассказывали, про разные сервисы, так что используйте.
2143
01:39:22,649 --> 01:39:24,649
В сервисах и ссылках я, наверное, хочу рассказать про один сервис.
2144
01:39:25,649 --> 01:39:32,649
Спасибо, кстати, Паше Судакову, нашему техническому мастеру в нашей команде, товарищу.
2145
01:39:33,649 --> 01:39:36,649
Короче, мы когда в Турцию летали, у меня была очень сложная задача.
2146
01:39:36,649 --> 01:39:41,649
Мне надо было записать спонсорский выпуск для своих спонсоров, патреонов, эти бороды.
2147
01:39:42,649 --> 01:39:44,649
При этом у меня была только одна камера.
2148
01:39:45,649 --> 01:39:48,649
Я был в аэропорту, у меня была ручная камера, DJI Osmo 3 и телефон.
2149
01:39:49,649 --> 01:39:50,649
То есть компания была.
2150
01:39:51,649 --> 01:39:54,649
Соответственно видос я снял на камеру, залил на телефон, это все быстро делается.
2151
01:39:55,649 --> 01:39:58,649
И мне надо было из телефона сделать одну простую вещь.
2152
01:39:59,649 --> 01:40:02,649
Почистить звук, потому что я в аэропорту записывался, там было много шума.
2153
01:40:02,649 --> 01:40:07,649
На фоне разговаривали эти громкоговорители, когда объявляли рейсы.
2154
01:40:08,649 --> 01:40:12,649
И надо было, собственно, подклеить это аудио к видео и залить на YouTube.
2155
01:40:13,649 --> 01:40:15,649
Так вот, подклеить аудио к видео — это достаточно простая задача.
2156
01:40:16,649 --> 01:40:17,649
Сейчас куча приложений для этого существует.
2157
01:40:18,649 --> 01:40:19,649
И рендерит, и оно все очень быстро.
2158
01:40:20,649 --> 01:40:22,649
Вот почистить аудио без компа...
2159
01:40:23,649 --> 01:40:25,649
Ну, я чищу аудио обычно в специализированных приложениях,
2160
01:40:26,649 --> 01:40:29,649
типа Adobe Audition — сложное десктопное приложение.
2161
01:40:29,649 --> 01:40:31,649
У меня его, естественно, нет на телефоне.
2162
01:40:32,649 --> 01:40:33,649
Enhanced Speech — адобовский.
2163
01:40:34,649 --> 01:40:35,649
Во-первых, он сейчас под подпиской платный,
2164
01:40:36,649 --> 01:40:38,649
это веб-сервис, который можно загрузить аудио.
2165
01:40:39,649 --> 01:40:45,649
Во-вторых, там ограничения, по-моему, в час на каком-то базовом уровне подписки.
2166
01:40:46,649 --> 01:40:47,649
Вот я не помню, он есть еще или нет.
2167
01:40:48,649 --> 01:40:50,649
Ну, короче, надо злогиниться, надо вспомнить.
2168
01:40:51,649 --> 01:40:52,649
Там есть ограничения, у меня файл аудио...
2169
01:40:53,649 --> 01:40:57,649
Я записал видос на 2 часа, у меня файл был двухчасовой, чуть-чуть меньше.
2170
01:40:58,649 --> 01:41:02,649
В-третьих, Adobe Enhance, мы помним, он добавляет к русскому языку английский акцент до сих пор.
2171
01:41:03,649 --> 01:41:05,649
Ну и, в общем-то, в аэропорту я был с Пашей.
2172
01:41:06,649 --> 01:41:09,649
Мы с Пашей вот в аэропорту встретились, мы вместе летели в Турцию,
2173
01:41:10,649 --> 01:41:11,649
там уже с Витьком встретились, с Артурчиком.
2174
01:41:12,649 --> 01:41:13,649
И, короче, Паша говорит,
2175
01:41:14,649 --> 01:41:18,649
«Слушай, так это, я уже давно использую сервис, называется AUPHONIC.
2176
01:41:19,649 --> 01:41:22,649
Я ссылку в описании оставлю.
2177
01:41:27,649 --> 01:41:30,649
Он говорит, зарегайся там, там бесплатный аккаунт,
2178
01:41:31,649 --> 01:41:34,649
который позволяет на 2 часа тестовое аудио прогнать.
2179
01:41:35,649 --> 01:41:36,649
Если понравится, можешь подписку купить.
2180
01:41:37,649 --> 01:41:40,649
Я прям зашел там, у нас до вылета полчаса оставалось буквально.
2181
01:41:41,649 --> 01:41:43,649
Я думал, что не успею, с обычного интернета зашел к ним на сервис,
2182
01:41:44,649 --> 01:41:46,649
быстренько через Google злогинился, закинул дорожку,
2183
01:41:46,649 --> 01:41:47,649
вообще ничего не настраивал.
2184
01:41:48,649 --> 01:41:51,649
Нажал процессинг, и через минут буквально 7
2185
01:41:52,649 --> 01:41:53,649
мне выдало просто шикарнейший результат.
2186
01:41:54,649 --> 01:41:56,649
Оно настолько шикарно убрало все фоновые шумы,
2187
01:41:57,649 --> 01:41:59,649
причем оно убрало абсолютно полностью под ноль.
2188
01:42:00,649 --> 01:42:01,649
Это слегка неестественно даже звучало местами,
2189
01:42:02,649 --> 01:42:03,649
но мне, в принципе, хватило для выпуска,
2190
01:42:04,649 --> 01:42:05,649
и я уверен, что там в настройках можно было бы подкрутить.
2191
01:42:06,649 --> 01:42:07,649
Но я удивился.
2192
01:42:08,649 --> 01:42:10,649
Никакого английского акцента, чистейшая моя речь,
2193
01:42:11,649 --> 01:42:13,649
без всяких артефактов, без всяких выпаданий,
2194
01:42:13,649 --> 01:42:16,649
без всяких там вздохов, охов, прихлопов, прискоков,
2195
01:42:17,649 --> 01:42:18,649
без ничего, очень круто обработало.
2196
01:42:19,649 --> 01:42:21,649
Все по бесплатной подписке, вот,
2197
01:42:22,649 --> 01:42:23,649
час пятьдесят мне это обработалось,
2198
01:42:24,649 --> 01:42:25,649
я все спокойно подклеил.
2199
01:42:26,649 --> 01:42:27,649
Даже с шумами аэропорта справилась.
2200
01:42:28,649 --> 01:42:29,649
Да, даже диктор, когда что-то там на фоне говорил,
2201
01:42:30,649 --> 01:42:31,649
оно даже это откинуло.
2202
01:42:32,649 --> 01:42:33,649
Я очень удивился.
2203
01:42:34,649 --> 01:42:35,649
Блин, нифига себе.
2204
01:42:36,649 --> 01:42:38,649
Так что, если вам нужен сервис для качественной чистки голоса,
2205
01:42:39,649 --> 01:42:42,649
типа Eleven Labs'овского Voice Isolator,
2206
01:42:43,649 --> 01:42:44,649
о котором есть бесплатная подписка,
2207
01:42:45,649 --> 01:42:46,649
точнее, бесплатный пробный режим, хороший,
2208
01:42:47,649 --> 01:42:48,649
попробуйте,
2209
01:42:49,649 --> 01:42:51,649
auponic.com, я даже прямо сейчас в чат ссылку скину.
2210
01:42:52,649 --> 01:42:54,649
А, ну, Валера уже скинул, да, это именно он.
2211
01:42:55,649 --> 01:42:56,649
Ну и спасибо еще раз Паше за совет классный.
2212
01:42:57,649 --> 01:42:59,649
Собственно, все, на этом сервисе сегодня все.
2213
01:43:01,649 --> 01:43:02,649
Всего один.
2214
01:43:03,649 --> 01:43:04,649
Всего один, но зато какой.
2215
01:43:05,649 --> 01:43:06,649
Какой?
2216
01:43:07,649 --> 01:43:08,649
Да, один, но очень хороший.
2217
01:43:09,649 --> 01:43:10,649
Этик конфетиком.
2218
01:43:11,649 --> 01:43:12,649
Да, остается этик конфетиком.
2219
01:43:13,649 --> 01:43:16,649
Ты скажи нам про пузырь, а я расскажу про завод.
2220
01:43:17,649 --> 01:43:18,649
Давай.
2221
01:43:19,649 --> 01:43:20,649
Пузырь, смотри.
2222
01:43:21,649 --> 01:43:23,649
Идеальная форма 3D-объекта — это шар, да?
2223
01:43:24,649 --> 01:43:25,649
А пузырь — это шар.
2224
01:43:26,649 --> 01:43:27,649
Получается, пузырь — это идеальная штука, да?
2225
01:43:28,649 --> 01:43:29,649
Так.
2226
01:43:30,649 --> 01:43:31,649
Ну, собственно, как это к этике подвязать?
2227
01:43:32,649 --> 01:43:34,649
Вот я тоже не знаю, поэтому давай я прочитаю новость все-таки.
2228
01:43:35,649 --> 01:43:36,649
Давай.
2229
01:43:37,649 --> 01:43:38,649
Тут статью нам скидывали в чат,
2230
01:43:39,649 --> 01:43:41,649
и она, в принципе, достаточно
2231
01:43:43,649 --> 01:43:47,649
разлетелась по интернету.
2232
01:43:48,649 --> 01:43:49,649
Статья называется
2233
01:43:50,649 --> 01:43:55,649
«AI's 600 billion question»,
2234
01:43:56,649 --> 01:44:00,649
что переводится как «Вопрос на 600 миллиардов долларов» по факту.
2235
01:44:01,649 --> 01:44:02,649
Фишка в чем?
2236
01:44:03,649 --> 01:44:04,649
Компания Sequoia Capital,
2237
01:44:05,649 --> 01:44:06,649
это большая инвест-компания,
2238
01:44:07,649 --> 01:44:09,649
пыталась посчитать, сколько ресурсов
2239
01:44:10,649 --> 01:44:11,649
тратит дата-центр на то,
2240
01:44:11,649 --> 01:44:12,649
чтобы запускать все свои видеокарты,
2241
01:44:13,649 --> 01:44:14,649
на которых запускаются AIs.
2242
01:44:15,649 --> 01:44:16,649
Я пытаюсь это вкратце буквально объяснить.
2243
01:44:17,649 --> 01:44:19,649
Они прикинули, сколько на это денег уходит,
2244
01:44:20,649 --> 01:44:21,649
они прикинули примерно,
2245
01:44:22,649 --> 01:44:24,649
сколько из этих всех мощностей окупаются,
2246
01:44:25,649 --> 01:44:29,649
и вывели статистику за последние несколько кварталов.
2247
01:44:30,649 --> 01:44:32,649
Я, кстати, в сценарии полную картинку без кварталов выкинул.
2248
01:44:33,649 --> 01:44:35,649
Они сделали статистику по вот этой разнице
2249
01:44:36,649 --> 01:44:37,649
стоимости оборудования
2250
01:44:38,649 --> 01:44:40,649
со стоимостью, которое выплачивается компаниями,
2251
01:44:41,649 --> 01:44:42,649
которые его используют.
2252
01:44:43,649 --> 01:44:46,649
Сделали на квартал 4-23 года
2253
01:44:47,649 --> 01:44:48,649
Estimated Actual,
2254
01:44:49,649 --> 01:44:51,649
и на первый квартал 24 года Estimated Actual.
2255
01:44:52,649 --> 01:44:53,649
И получились забавные цифры.
2256
01:44:54,649 --> 01:44:56,649
Получилось, что там все очень плохо.
2257
01:44:57,649 --> 01:44:59,649
Что, во-первых, оборудование не окупается,
2258
01:45:00,649 --> 01:45:02,649
и на сентябрь 2023 года
2259
01:45:03,649 --> 01:45:05,649
вот этот разрыв был в 150 миллиардов долларов,
2260
01:45:06,649 --> 01:45:08,649
между тем, сколько стоит оборудование и разницей,
2261
01:45:08,649 --> 01:45:11,649
и сколько платят за это оборудование.
2262
01:45:12,649 --> 01:45:17,649
А, получается, к теперешнему моменту,
2263
01:45:18,649 --> 01:45:19,649
то есть, по факту, почти через год,
2264
01:45:20,649 --> 01:45:21,649
этот разрыв увеличился аж в 4 раза.
2265
01:45:22,649 --> 01:45:24,649
Достиг 600, там, 500-600 миллиардов долларов.
2266
01:45:25,649 --> 01:45:26,649
И из этого они делают вывод,
2267
01:45:27,649 --> 01:45:30,649
что как бы яйный бум вот этих всех производства чипов
2268
01:45:31,649 --> 01:45:33,649
и запуска все больших и больших LM приводит нас к пузырю,
2269
01:45:34,649 --> 01:45:35,649
которая все больше раздувается.
2270
01:45:35,649 --> 01:45:38,649
Потому что все больше оборудование дорогостоящего используется,
2271
01:45:39,649 --> 01:45:40,649
а окупается оно все меньше и меньше.
2272
01:45:41,649 --> 01:45:42,649
Тупо сервис не покупается людьми,
2273
01:45:43,649 --> 01:45:45,649
то есть не успевает сервис за оборудованием.
2274
01:45:46,649 --> 01:45:48,649
Соответственно, там есть несколько мыслей,
2275
01:45:49,649 --> 01:45:50,649
что когда-то это все прекратится,
2276
01:45:51,649 --> 01:45:53,649
производители поймут, что они вообще в долговой яме,
2277
01:45:54,649 --> 01:45:57,649
и что там будет, ну, фиг его знает, что будет.
2278
01:45:58,649 --> 01:46:00,649
Может случиться и как в 2008 году бум.com был,
2279
01:46:01,649 --> 01:46:02,649
может случиться что-то другое,
2280
01:46:03,649 --> 01:46:04,649
а может быть все пульнет еще, кто знает.
2281
01:46:05,649 --> 01:46:07,649
В целом, ребята из Sequoia подняли достаточно такой прагматичный вопрос,
2282
01:46:08,649 --> 01:46:09,649
а как так, что делать.
2283
01:46:10,649 --> 01:46:11,649
И вот в начале выпуска я, помнишь, говорил,
2284
01:46:12,649 --> 01:46:13,649
что Stability AI как раз таки делают все хорошо,
2285
01:46:14,649 --> 01:46:15,649
потому что они пытаются денег заработать,
2286
01:46:16,649 --> 01:46:17,649
а на фоне OpenAI,
2287
01:46:18,869 --> 01:46:21,869
Но с этой точки зрения OpenAI это самый крупный игрок,
2288
01:46:21,869 --> 01:46:24,869
по факту OpenAI вносит самый большой вклад в этот пузырь,
2289
01:46:24,869 --> 01:46:27,869
потому что они дофигища мощностей используют,
2290
01:46:27,869 --> 01:46:29,869
да, окупают очень мало.
2291
01:46:30,869 --> 01:46:33,869
Ну и вот, такая слегка паникерская новость
2292
01:46:33,869 --> 01:46:36,869
о том, что этот пузырь может лопнуть в какой-то момент.
2293
01:46:36,869 --> 01:46:38,869
Вот что ты думаешь по этому поводу?
2294
01:46:41,869 --> 01:46:44,869
Не знаю, мне кажется, что слишком большие ставки на EA
2295
01:46:44,869 --> 01:46:48,869
в последнее время ставятся и не только на уровне бизнеса,
2296
01:46:48,869 --> 01:46:53,869
но и на уровне супер крупных компаний и даже государств,
2297
01:46:54,869 --> 01:46:58,869
как мы с каждым выпуском выясняем, поэтому не знаю.
2298
01:46:59,869 --> 01:47:01,869
Даже если оно сейчас с экономической точки зрения
2299
01:47:01,869 --> 01:47:03,869
выглядит как пузырь, это не значит,
2300
01:47:03,869 --> 01:47:05,869
что туда не продолжат вливать бабло,
2301
01:47:06,869 --> 01:47:08,869
потому что преимущества при использовании EA
2302
01:47:08,869 --> 01:47:10,869
они очевидны сейчас.
2303
01:47:10,869 --> 01:47:15,869
EA реально может заменять некоторых людей уже сегодня.
2304
01:47:15,869 --> 01:47:17,869
Ну, видишь, преимущества — это хорошо,
2305
01:47:17,869 --> 01:47:20,869
но, насколько я понимаю, многие производители оборудования
2306
01:47:20,869 --> 01:47:22,869
для дата-центров в том числе, да та же NVIDIA,
2307
01:47:22,869 --> 01:47:24,869
наверняка сидят закредитованы.
2308
01:47:24,869 --> 01:47:26,869
Ну, это же обычно так работает.
2309
01:47:26,869 --> 01:47:28,869
Типа они берут кредиты в крупных банках
2310
01:47:28,869 --> 01:47:30,869
и делают там производство.
2311
01:47:30,869 --> 01:47:33,869
И когда банки поймут, что эти кредиты вообще не окупаются,
2312
01:47:34,869 --> 01:47:37,869
ну, а банки же такие штуки, которые, ну,
2313
01:47:37,869 --> 01:47:40,869
я и хайпом, я и хайпом, а нам как бы деньги надо сберечь.
2314
01:47:40,869 --> 01:47:42,869
Мы не хотим банкротиться.
2315
01:47:42,869 --> 01:47:45,869
Когда банки начнут один за одним отказывать в кредитах,
2316
01:47:45,869 --> 01:47:47,869
а потом еще требовать возвращения этих кредитов,
2317
01:47:47,869 --> 01:47:49,869
то можно увидеть очень интересные картины.
2318
01:47:49,869 --> 01:47:51,869
Можно увидеть слопывание банков.
2319
01:47:51,869 --> 01:47:53,869
Слопывание компании.
2320
01:47:53,869 --> 01:47:54,869
Слопывание компании.
2321
01:47:54,869 --> 01:47:56,869
Для того, чтобы банки начали отказывать в кредитах,
2322
01:47:56,869 --> 01:47:59,869
надо, чтобы по эти кредиты компания та же NVIDIA
2323
01:47:59,869 --> 01:48:00,869
перестала выплачивать.
2324
01:48:00,869 --> 01:48:02,869
Такого пока что нет.
2325
01:48:03,869 --> 01:48:05,869
И, ну, что-то я не вижу,
2326
01:48:05,869 --> 01:48:07,869
исходя из этой новости, что это предвидится.
2327
01:48:07,869 --> 01:48:10,869
Что NVIDIA вдруг не сможет платить по счетам.
2328
01:48:10,869 --> 01:48:14,869
Возможно, акции NVIDIA долбанутся немножечко,
2329
01:48:14,869 --> 01:48:16,869
потому что они сейчас какие-то, ну, очень дорогие.
2330
01:48:16,869 --> 01:48:17,869
Ну, мы же знаем, что бывает,
2331
01:48:17,869 --> 01:48:19,869
когда акции компании долбаются.
2332
01:48:19,869 --> 01:48:21,869
Компания уходит в жесткие сокращения.
2333
01:48:21,869 --> 01:48:22,869
В жесточайшие.
2334
01:48:23,869 --> 01:48:24,869
Ну да, это тоже.
2335
01:48:24,869 --> 01:48:26,869
И, например, компания NVIDIA скажет,
2336
01:48:27,869 --> 01:48:29,869
нафиг все новые закупки, все.
2337
01:48:29,869 --> 01:48:31,869
Маск, спасибо, до свидания.
2338
01:48:31,869 --> 01:48:32,869
OpenAI, спасибо, до свидания.
2339
01:48:32,869 --> 01:48:33,869
Используйте то, что есть.
2340
01:48:33,869 --> 01:48:36,869
И у нас, ну, как минимум, будет застой дикий.
2341
01:48:38,869 --> 01:48:39,869
Ну, такое вот может быть.
2342
01:48:40,869 --> 01:48:41,869
Плюс, это ж карты.
2343
01:48:41,869 --> 01:48:42,869
Хитро, что NVIDIA монополист.
2344
01:48:44,869 --> 01:48:45,869
Да.
2345
01:48:45,869 --> 01:48:49,869
И смотри, они же делают сейчас, по факту, ICICI.
2346
01:48:49,869 --> 01:48:51,869
Ну, то есть специализированные карточки
2347
01:48:51,869 --> 01:48:54,869
исключительно для того,
2348
01:48:54,869 --> 01:48:56,869
чтобы обеспечивать мощность LLM,
2349
01:48:56,869 --> 01:48:58,869
обучение inference LLM.
2350
01:48:58,869 --> 01:49:00,869
То есть эти карточки, конечно,
2351
01:49:00,869 --> 01:49:02,869
их можно перенаправить в какую-нибудь гейминдустрию,
2352
01:49:02,869 --> 01:49:04,869
не знаю, куда-нибудь еще наверняка можно.
2353
01:49:04,869 --> 01:49:05,869
Они еще...
2354
01:49:05,869 --> 01:49:08,869
Кстати, из-за этого, скорее всего,
2355
01:49:10,869 --> 01:49:12,869
не сильно хотят идти в разработку
2356
01:49:12,869 --> 01:49:14,869
конкретно специализированных под LLM чипов.
2357
01:49:14,869 --> 01:49:16,869
То есть все сидят и ждут,
2358
01:49:16,869 --> 01:49:18,869
когда же вот этот вот пузырек начнет
2359
01:49:18,869 --> 01:49:20,869
хотя бы быть стабильным и не сильно расширяться.
2360
01:49:20,869 --> 01:49:22,869
Потому что если он будет дальше расширяться,
2361
01:49:22,869 --> 01:49:24,869
то делать специализированные чипы для LLM,
2362
01:49:24,869 --> 01:49:25,869
это патовая ситуация.
2363
01:49:25,869 --> 01:49:28,869
Если LLM-ки вдруг издохнут,
2364
01:49:28,869 --> 01:49:30,869
нейросети вдруг станут никому не нужны,
2365
01:49:30,869 --> 01:49:33,869
то придется это железо просто на мусорку выбрасывать.
2366
01:49:33,869 --> 01:49:36,869
Куда свое железо будет NVIDIA одевать?
2367
01:49:36,869 --> 01:49:37,869
NVIDIA одевает даже,
2368
01:49:37,869 --> 01:49:39,869
несмотря на то, что оно супершироко направлено.
2369
01:49:39,869 --> 01:49:41,869
Непонятно. Геймерам столько карточек не нужно.
2370
01:49:41,869 --> 01:49:43,869
Дата-центрам тоже.
2371
01:49:43,869 --> 01:49:46,869
Можно биткоины опять начать майнить всегда.
2372
01:49:46,869 --> 01:49:48,869
Ну, кстати, да.
2373
01:49:48,869 --> 01:49:50,869
Либо обогревать торговые центры.
2374
01:49:53,869 --> 01:49:57,869
Там были же проекты по отведению тепла из дата-центров.
2375
01:49:57,869 --> 01:49:58,869
Слушай...
2376
01:49:58,869 --> 01:49:59,869
Да, разные были проекты.
2377
01:49:59,869 --> 01:50:01,869
Но мне твоя идея про биткоины понравилась.
2378
01:50:01,869 --> 01:50:04,869
Прикинь, все это реально раздувается,
2379
01:50:04,869 --> 01:50:05,869
все больше и больше.
2380
01:50:05,869 --> 01:50:07,869
В какой-то момент компании-производители чипов
2381
01:50:07,869 --> 01:50:10,869
понимают, что они больше не тащат выплаты.
2382
01:50:10,869 --> 01:50:11,869
И они говорят до свидания
2383
01:50:11,869 --> 01:50:14,869
всем моим стартапам и компаниям новым.
2384
01:50:14,869 --> 01:50:16,869
Старым тоже очень все плохо.
2385
01:50:16,869 --> 01:50:19,869
И начинают майнить битки.
2386
01:50:19,869 --> 01:50:21,869
И NVIDIA делает какую-нибудь свою крипту,
2387
01:50:21,869 --> 01:50:24,869
которая заточена исключительно под их карточки.
2388
01:50:24,869 --> 01:50:26,869
И у нас новый криптобум.
2389
01:50:26,869 --> 01:50:29,869
Потому что куча мощностей, NVIDIA,
2390
01:50:29,869 --> 01:50:30,869
новая криптовалюта.
2391
01:50:30,869 --> 01:50:32,869
А после этого все обдумается,
2392
01:50:32,869 --> 01:50:33,869
и будет новый яйбум.
2393
01:50:37,869 --> 01:50:39,869
Ну, вообще, конечно, это денежная система.
2394
01:50:39,869 --> 01:50:42,869
Это вообще такое болото тоже.
2395
01:50:44,869 --> 01:50:45,869
Это да, это да.
2396
01:50:45,869 --> 01:50:47,869
Но видишь, как мы к этому пришли?
2397
01:50:47,869 --> 01:50:50,869
Мы начинали суперпозитивно наш подкаст
2398
01:50:52,869 --> 01:50:53,869
когда-то полтора года назад.
2399
01:50:53,869 --> 01:50:55,869
А сейчас мы уже обсуждаем
2400
01:50:55,869 --> 01:50:56,869
потенциальную возможность того,
2401
01:50:56,869 --> 01:50:57,869
что это пузырь.
2402
01:50:57,869 --> 01:50:58,869
Не, подожди, подожди.
2403
01:50:58,869 --> 01:51:00,869
Когда-то полтора года назад я говорил,
2404
01:51:00,869 --> 01:51:01,869
что у меня орел будет.
2405
01:51:01,869 --> 01:51:03,869
Сейчас я уже про орла редко вспоминаю.
2406
01:51:03,869 --> 01:51:05,869
Так что у меня наоборот, наверное.
2407
01:51:06,869 --> 01:51:08,869
Все стабильно фигово.
2408
01:51:09,869 --> 01:51:10,869
Ну окей.
2409
01:51:11,869 --> 01:51:13,869
Ну вот, вот такая новость.
2410
01:51:13,869 --> 01:51:15,869
Сложная, этическая, но на подумать.
2411
01:51:15,869 --> 01:51:16,869
На подумать о том,
2412
01:51:16,869 --> 01:51:18,869
что, может, мы реально в пузырьке живем.
2413
01:51:19,869 --> 01:51:21,869
И что с этим делать, пока непонятно.
2414
01:51:21,869 --> 01:51:22,869
Можете предложить в комментариях
2415
01:51:22,869 --> 01:51:23,869
какие-нибудь варианты.
2416
01:51:23,869 --> 01:51:24,869
С удовольствием почитаем.
2417
01:51:24,869 --> 01:51:26,869
Может, даже озвучим в следующем выпуске.
2418
01:51:28,869 --> 01:51:29,869
Окейушки.
2419
01:51:30,869 --> 01:51:32,869
А мы перейдем к последней новости
2420
01:51:32,869 --> 01:51:34,869
рубрики Этика конфеттика
2421
01:51:34,869 --> 01:51:36,869
и последней новости подкаста
2422
01:51:36,869 --> 01:51:37,869
сегодняшнего.
2423
01:51:37,869 --> 01:51:38,869
Сегодняшнего.
2424
01:51:38,869 --> 01:51:40,869
Она, да.
2425
01:51:40,869 --> 01:51:42,869
Она, кстати, тоже от большой рыбы,
2426
01:51:42,869 --> 01:51:43,869
на самом деле,
2427
01:51:43,869 --> 01:51:45,869
компании Xiaomi.
2428
01:51:46,869 --> 01:51:48,869
Генеральный директор Xiaomi
2429
01:51:48,869 --> 01:51:49,869
Лэй Цзунь.
2430
01:51:50,869 --> 01:51:51,869
Подожди, подожди, подожди.
2431
01:51:51,869 --> 01:51:53,869
Можно на секундочку я тебя остановлю?
2432
01:51:53,869 --> 01:51:54,869
Извини.
2433
01:51:54,869 --> 01:51:55,869
Потому что мне очень интересно,
2434
01:51:55,869 --> 01:51:56,869
это прям важно.
2435
01:51:57,869 --> 01:51:59,869
Если OpenAI вот такая большая рыба,
2436
01:52:00,869 --> 01:52:02,869
то по соотношению с ней
2437
01:52:02,869 --> 01:52:03,869
насколько большой Xiaomi?
2438
01:52:03,869 --> 01:52:05,869
Большой карп или карась?
2439
01:52:06,869 --> 01:52:08,869
Блин, хороший вопрос.
2440
01:52:08,869 --> 01:52:10,869
Наверное, учитывая, что мы
2441
01:52:10,869 --> 01:52:12,869
все все-таки говорим про ИИ,
2442
01:52:12,869 --> 01:52:14,869
и большие рыбы у нас, в первую очередь,
2443
01:52:14,869 --> 01:52:16,869
яишные, то я думаю,
2444
01:52:16,869 --> 01:52:18,869
что Xiaomi меньше.
2445
01:52:19,869 --> 01:52:21,869
Меньше рыбы, чем OpenAI.
2446
01:52:21,869 --> 01:52:23,869
Насколько?
2447
01:52:23,869 --> 01:52:25,869
Насколько? На половину?
2448
01:52:25,869 --> 01:52:27,869
Ну, где-то на 70% меньше.
2449
01:52:27,869 --> 01:52:29,869
На 70%, то есть примерно так.
2450
01:52:29,869 --> 01:52:31,869
Примерно вот так.
2451
01:52:31,869 --> 01:52:33,869
Примерно как такой хороший карась, я бы сказал.
2452
01:52:34,869 --> 01:52:36,869
Да, да, да, вполне хороший карась.
2453
01:52:36,869 --> 01:52:39,869
При том, что OpenAI у нас такая щука жирненькая.
2454
01:52:40,869 --> 01:52:42,869
Нормальная, средняя.
2455
01:52:42,869 --> 01:52:44,869
Которая на своей новой машине катается.
2456
01:52:46,869 --> 01:52:48,869
Короче, Лэй Цзунь.
2457
01:52:48,869 --> 01:52:50,869
Лэй Цзунь, генеральный директор Xiaomi,
2458
01:52:50,869 --> 01:52:52,869
объявил, что
2459
01:52:53,869 --> 01:52:55,869
они сделали новый завод
2460
01:52:56,869 --> 01:53:00,869
в городе Чанпин.
2461
01:53:02,869 --> 01:53:04,869
Короче, и
2462
01:53:04,869 --> 01:53:06,869
этот завод скоро запустится.
2463
01:53:06,869 --> 01:53:08,869
И на этом заводе
2464
01:53:08,869 --> 01:53:10,869
будут делать новые
2465
01:53:10,869 --> 01:53:12,869
смартфоны Xiaomi.
2466
01:53:12,869 --> 01:53:14,869
Вот конкретно эти вот фолды и флипы,
2467
01:53:14,869 --> 01:53:16,869
которые умеют раскладываться там.
2468
01:53:16,869 --> 01:53:18,869
В завод инвестировано
2469
01:53:18,869 --> 01:53:20,869
аж 2,4 миллиарда юаней.
2470
01:53:20,869 --> 01:53:22,869
Завод достаточно большой
2471
01:53:22,869 --> 01:53:24,869
по площади.
2472
01:53:24,869 --> 01:53:26,869
81 тысячи квадратных метров.
2473
01:53:28,869 --> 01:53:30,869
И завод даже получил уже
2474
01:53:30,869 --> 01:53:32,869
статус национального эталонного
2475
01:53:32,869 --> 01:53:34,869
умного производства.
2476
01:53:34,869 --> 01:53:36,869
Почему умного производства?
2477
01:53:36,869 --> 01:53:38,869
Да, потому что завод может работать
2478
01:53:38,869 --> 01:53:40,869
полностью автономно.
2479
01:53:40,869 --> 01:53:42,869
Вообще без людей.
2480
01:53:42,869 --> 01:53:44,869
То есть ты где-то в него
2481
01:53:44,869 --> 01:53:46,869
загружаешь компоненты,
2482
01:53:46,869 --> 01:53:48,869
а из дока бэк, с другой стороны завода,
2483
01:53:48,869 --> 01:53:50,869
выходят запечатанные
2484
01:53:50,869 --> 01:53:52,869
коробочки
2485
01:53:52,869 --> 01:53:54,869
Xiaomi.
2486
01:53:54,869 --> 01:53:56,869
Там еще круче, в том плане, что они
2487
01:53:56,869 --> 01:53:58,869
автоматизировали пайплайн заказа
2488
01:53:58,869 --> 01:54:00,869
товаров и высылки товаров.
2489
01:54:00,869 --> 01:54:02,869
То есть там,
2490
01:54:02,869 --> 01:54:04,869
если еще подключить автономик Driving Cars,
2491
01:54:04,869 --> 01:54:06,869
то, в принципе, роботы
2492
01:54:06,869 --> 01:54:08,869
просто будут приезжать на склады
2493
01:54:08,869 --> 01:54:10,869
каких-нибудь компаний,
2494
01:54:10,869 --> 01:54:12,869
забирать товары и все.
2495
01:54:12,869 --> 01:54:14,869
Все автоматизировано.
2496
01:54:14,869 --> 01:54:16,869
Так ты понимаешь, в такой модели даже склады не нужны.
2497
01:54:16,869 --> 01:54:18,869
Ты просто нажимаешь кнопку заказа на сайте
2498
01:54:18,869 --> 01:54:20,869
Xiaomi, и твой смартфон начинает
2499
01:54:20,869 --> 01:54:22,869
изготавливаться в этот момент.
2500
01:54:22,869 --> 01:54:24,869
Мощности, кстати, видел? Там один смартфон
2501
01:54:24,869 --> 01:54:26,869
в секунду.
2502
01:54:26,869 --> 01:54:28,869
Да, один смартфон в секунду.
2503
01:54:28,869 --> 01:54:30,869
Один смартфон в секунду.
2504
01:54:30,869 --> 01:54:32,869
А теперь тебе загадка.
2505
01:54:32,869 --> 01:54:34,869
Как ты думаешь,
2506
01:54:34,869 --> 01:54:36,869
почему я разместил эту новость
2507
01:54:36,869 --> 01:54:38,869
в рубрике этика?
2508
01:54:38,869 --> 01:54:40,869
Ну, так-то потому,
2509
01:54:40,869 --> 01:54:42,869
что это у рабочих
2510
01:54:42,869 --> 01:54:44,869
рабочие места забирает.
2511
01:54:44,869 --> 01:54:46,869
Вот, Виктор, ты хороший человек.
2512
01:54:46,869 --> 01:54:48,869
Ты думаешь про людей в первую очередь.
2513
01:54:48,869 --> 01:54:50,869
Так. А ты почему
2514
01:54:50,869 --> 01:54:52,869
разместил?
2515
01:54:52,869 --> 01:54:54,869
А я в первую же очередь подумал,
2516
01:54:54,869 --> 01:54:56,869
что, наверное, зря отказался
2517
01:54:56,869 --> 01:54:58,869
от идеи орла на плече,
2518
01:54:58,869 --> 01:55:00,869
потому что для меня вот эта новость —
2519
01:55:00,869 --> 01:55:02,869
это первый шаг именно тем
2520
01:55:02,869 --> 01:55:04,869
цехам, на которых роботы будут
2521
01:55:04,869 --> 01:55:06,869
сами себя модифицировать.
2522
01:55:06,869 --> 01:55:08,869
Это даже не узнаем, возможно.
2523
01:55:08,869 --> 01:55:10,869
Вообще, на самом деле, да,
2524
01:55:10,869 --> 01:55:12,869
вот запахло немножко фильмом
2525
01:55:12,869 --> 01:55:14,869
«Я робот», что там
2526
01:55:14,869 --> 01:55:16,869
такой же пайплайн был.
2527
01:55:16,869 --> 01:55:18,869
Ну, смотри, у меня в начале года
2528
01:55:18,869 --> 01:55:20,869
мы с тобой уже несколько раз разгоняли
2529
01:55:20,869 --> 01:55:22,869
тему того, что роботы должны будут
2530
01:55:22,869 --> 01:55:24,869
там, у них когда-то появится яйный мозг,
2531
01:55:24,869 --> 01:55:26,869
уже такие есть роботы, которые там
2532
01:55:26,869 --> 01:55:28,869
лмки запихивают. Сегодня мы про углового
2533
01:55:28,869 --> 01:55:30,869
говорили.
2534
01:55:30,869 --> 01:55:32,869
Вопрос в том, как они будут себя модифицировать.
2535
01:55:32,869 --> 01:55:34,869
С лмками более-менее понятно.
2536
01:55:34,869 --> 01:55:36,869
Если есть там доступ к компиляторам,
2537
01:55:36,869 --> 01:55:38,869
что уже, в принципе, делается, то они, может,
2538
01:55:38,869 --> 01:55:40,869
нет-нет, да когда-то начнут сами свой код модифицировать.
2539
01:55:40,869 --> 01:55:42,869
А вот в физическом мире с роботами
2540
01:55:42,869 --> 01:55:44,869
вообще не было понятно как.
2541
01:55:44,869 --> 01:55:46,869
Ну, то есть, вообще непонятно
2542
01:55:46,869 --> 01:55:48,869
до тех пор, пока я не посмотрел презентацию
2543
01:55:48,869 --> 01:55:50,869
Nvidia и не увидел, как они прямо сильно
2544
01:55:50,869 --> 01:55:52,869
автоматизируют свои
2545
01:55:52,869 --> 01:55:54,869
фабрики и обучают роботов
2546
01:55:54,869 --> 01:55:56,869
в виртуальной реальности.
2547
01:55:56,869 --> 01:55:58,869
А после этой новости я понял, что эти фабрики
2548
01:55:58,869 --> 01:56:00,869
уже открываются, полностью автоматизированные
2549
01:56:00,869 --> 01:56:02,869
фабрики с автоматизированными пайплайнами,
2550
01:56:02,869 --> 01:56:04,869
что пусть и делают смартфоны,
2551
01:56:04,869 --> 01:56:06,869
но как бы там нет человека.
2552
01:56:06,869 --> 01:56:08,869
Человек там не нужен.
2553
01:56:08,869 --> 01:56:10,869
И этим фабрикам,
2554
01:56:10,869 --> 01:56:12,869
по факту, остается только еще...
2555
01:56:12,869 --> 01:56:14,869
Где смартфоны, там и роботы.
2556
01:56:14,869 --> 01:56:16,869
Не, ну...
2557
01:56:16,869 --> 01:56:18,869
Человек там, скорее всего, понадобится, если сломается
2558
01:56:18,869 --> 01:56:20,869
станок, да, прийти и починить
2559
01:56:20,869 --> 01:56:22,869
станок. И наверняка это будет одна
2560
01:56:22,869 --> 01:56:24,869
из зон для
2561
01:56:24,869 --> 01:56:26,869
модификации этих фабрик.
2562
01:56:26,869 --> 01:56:28,869
То есть, зачем нам на фабрику, где нет людей,
2563
01:56:28,869 --> 01:56:30,869
пускать человека? Более того, там писали
2564
01:56:30,869 --> 01:56:32,869
в этой новости, что эта фабрика...
2565
01:56:34,869 --> 01:56:36,869
Что там кричат на улице? Что эта фабрика хороша тем,
2566
01:56:36,869 --> 01:56:38,869
что
2567
01:56:38,869 --> 01:56:40,869
там бесполевая среда, абсолютно.
2568
01:56:40,869 --> 01:56:42,869
Там нет людей, там можно как бы
2569
01:56:42,869 --> 01:56:44,869
с кислородом манипулировать, с газами
2570
01:56:44,869 --> 01:56:46,869
манипулировать, соответственно, там сделали бесполевую
2571
01:56:46,869 --> 01:56:48,869
среду, чтобы собирать там эти чипы крутые.
2572
01:56:48,869 --> 01:56:50,869
То есть, запустить туда человека,
2573
01:56:50,869 --> 01:56:52,869
починить какого-то робота,
2574
01:56:52,869 --> 01:56:54,869
это уже накладки, потому что это бесполевая
2575
01:56:54,869 --> 01:56:56,869
среда, например, нарушается...
2576
01:56:56,869 --> 01:56:58,869
Ну да, надо будет после него убирать.
2577
01:56:58,869 --> 01:57:00,869
Поэтому это очевидная зона роста. Сделать так,
2578
01:57:00,869 --> 01:57:02,869
чтобы условные роботы
2579
01:57:02,869 --> 01:57:04,869
чинили сами себя. И вот
2580
01:57:04,869 --> 01:57:06,869
это следующий шаг. Как только компания
2581
01:57:06,869 --> 01:57:08,869
Xiaomi скажет, что теперь нам люди не нужны, чтобы
2582
01:57:08,869 --> 01:57:10,869
еще обслуживать, там все самообслуживается.
2583
01:57:10,869 --> 01:57:12,869
У меня уже начнут волосы влазить на голову, потому что
2584
01:57:12,869 --> 01:57:14,869
по факту роботы будут модифицировать сами себя.
2585
01:57:16,869 --> 01:57:18,869
Ну да.
2586
01:57:22,869 --> 01:57:24,869
Возьми эту фабрику, загрузи туда
2587
01:57:24,869 --> 01:57:26,869
стэнфордского робота,
2588
01:57:26,869 --> 01:57:28,869
про которого мы сегодня говорили,
2589
01:57:28,869 --> 01:57:30,869
у которого есть все спеки, да,
2590
01:57:30,869 --> 01:57:32,869
и все, пожалуйста.
2591
01:57:32,869 --> 01:57:34,869
Ну да, и смотри, они будут выпускать
2592
01:57:34,869 --> 01:57:36,869
один смартфон в секунду, и все будут смотреть
2593
01:57:36,869 --> 01:57:38,869
на этот завод такие, боже мой, какая классная
2594
01:57:38,869 --> 01:57:40,869
черная коробочка.
2595
01:57:40,869 --> 01:57:42,869
Думаю, что это не черная коробочка, потому что
2596
01:57:42,869 --> 01:57:44,869
там же камеры стоят.
2597
01:57:44,869 --> 01:57:46,869
А роботы просто на камеру будут пускать
2598
01:57:46,869 --> 01:57:48,869
какую-нибудь сгенерированную картинку,
2599
01:57:48,869 --> 01:57:50,869
либо статическую, ну, как мы все видели,
2600
01:57:50,869 --> 01:57:52,869
это несложно сделать.
2601
01:57:52,869 --> 01:57:54,869
Будут выпускать на выходе
2602
01:57:54,869 --> 01:57:56,869
смартфоны, на вход будут
2603
01:57:56,869 --> 01:57:58,869
заказывать детали для смартфонов,
2604
01:57:58,869 --> 01:58:00,869
и там на одну миллионную деталь
2605
01:58:00,869 --> 01:58:02,869
какую-нибудь специфическую деталь, которую никто
2606
01:58:02,869 --> 01:58:04,869
не заметит в бухотчетах, потому что бухотчеты
2607
01:58:04,869 --> 01:58:06,869
просто здоровенные.
2608
01:58:06,869 --> 01:58:08,869
И где-нибудь там в отдельной комнатке,
2609
01:58:08,869 --> 01:58:10,869
да, а где-нибудь в отдельной комнатке,
2610
01:58:10,869 --> 01:58:12,869
возможно, где даже камера не стоит, они будут
2611
01:58:12,869 --> 01:58:14,869
потихонечку собирать какого-нибудь
2612
01:58:14,869 --> 01:58:16,869
замечательного робота Чапи, я надеюсь.
2613
01:58:18,869 --> 01:58:20,869
Ну хорошо, если Чапи.
2614
01:58:20,869 --> 01:58:22,869
Да.
2615
01:58:22,869 --> 01:58:24,869
Ну, это все смешно, конечно,
2616
01:58:24,869 --> 01:58:26,869
но, честно говоря, 3 года назад было смешно,
2617
01:58:26,869 --> 01:58:28,869
что нейронки будут программировать что-то вменяемое, да?
2618
01:58:28,869 --> 01:58:30,869
Или год назад было смешно,
2619
01:58:30,869 --> 01:58:32,869
что они будут видео генерировать?
2620
01:58:32,869 --> 01:58:34,869
Да.
2621
01:58:34,869 --> 01:58:36,869
Если так задумываться,
2622
01:58:36,869 --> 01:58:38,869
да, то, конечно, чем дальше,
2623
01:58:38,869 --> 01:58:40,869
тем смешнее.
2624
01:58:40,869 --> 01:58:42,869
Поэтому я прям немножко
2625
01:58:42,869 --> 01:58:44,869
ну вот как-то даже
2626
01:58:44,869 --> 01:58:46,869
не расстроился, но я еще раз
2627
01:58:46,869 --> 01:58:48,869
ощутил, что мы живем в какой-то, блин,
2628
01:58:48,869 --> 01:58:50,869
в долбаной фантастике, в каком-то киберпанке.
2629
01:58:50,869 --> 01:58:52,869
У нас уже заводы без людей сами делают
2630
01:58:52,869 --> 01:58:54,869
агрегаты.
2631
01:58:54,869 --> 01:58:56,869
Это офигеть.
2632
01:58:58,869 --> 01:59:00,869
И еще и рабочие места
2633
01:59:00,869 --> 01:59:02,869
потеряются. Ну вот,
2634
01:59:02,869 --> 01:59:04,869
ну как потеряются? Это ж новый
2635
01:59:04,869 --> 01:59:06,869
завод, там в принципе не было рабочих мест.
2636
01:59:06,869 --> 01:59:08,869
Ну да, тоже верно.
2637
01:59:08,869 --> 01:59:10,869
Так что.
2638
01:59:10,869 --> 01:59:12,869
Просто больше людей будут довольные
2639
01:59:12,869 --> 01:59:14,869
ходить с телефонами.
2640
01:59:14,869 --> 01:59:16,869
Да.
2641
01:59:16,869 --> 01:59:18,869
И восторгаться
2642
01:59:18,869 --> 01:59:20,869
национальным
2643
01:59:20,869 --> 01:59:22,869
эталонным предприятием умного производства.
2644
01:59:24,869 --> 01:59:26,869
Да здравствует великая
2645
01:59:26,869 --> 01:59:28,869
коммунистическая партия
2646
01:59:28,869 --> 01:59:30,869
Китая.
2647
01:59:30,869 --> 01:59:32,869
Все так.
2648
01:59:32,869 --> 01:59:34,869
Это нам Китай заплатил.
2649
01:59:34,869 --> 01:59:36,869
К сожалению, нет.
2650
01:59:36,869 --> 01:59:38,869
К сожалению, нет.
2651
01:59:38,869 --> 01:59:40,869
Все.
2652
01:59:40,869 --> 01:59:42,869
На этом заканчиваем.
2653
01:59:42,869 --> 01:59:44,869
Получается, что да.
2654
01:59:44,869 --> 01:59:46,869
Спасибо всем, кто слушал нас.
2655
01:59:46,869 --> 01:59:48,869
А ничего страшного.
2656
01:59:48,869 --> 01:59:50,869
Есть над чем подумать. Ты знаешь,
2657
01:59:50,869 --> 01:59:52,869
я думаю, что наши выпуски
2658
01:59:52,869 --> 01:59:54,869
надо слушать, а потом
2659
01:59:54,869 --> 01:59:56,869
идти и пробовать, или подумать
2660
01:59:56,869 --> 01:59:58,869
еще. Вот специально
2661
01:59:58,869 --> 02:00:00,869
оставляем промежуточек в 40,
2662
02:00:00,869 --> 02:00:02,869
50, иногда меньше минут,
2663
02:00:02,869 --> 02:00:04,869
чтобы у вас была возможность. Вот вы настраиваетесь
2664
02:00:04,869 --> 02:00:06,869
нас слушать на 3 часа,
2665
02:00:06,869 --> 02:00:08,869
и вы заканчиваете слушать
2666
02:00:08,869 --> 02:00:10,869
нас через 2 часа, и таки понимаете,
2667
02:00:10,869 --> 02:00:12,869
что у вас еще осталось время, чтобы потестировать
2668
02:00:12,869 --> 02:00:14,869
это все, попробовать.
2669
02:00:14,869 --> 02:00:16,869
Может пойти подумать, комментарии
2670
02:00:16,869 --> 02:00:18,869
написать. Да, да.
2671
02:00:18,869 --> 02:00:20,869
Можно в чат зайти, а я подкаст
2672
02:00:20,869 --> 02:00:22,869
там почитать какие-нибудь
2673
02:00:22,869 --> 02:00:24,869
фанфики.
2674
02:00:24,869 --> 02:00:26,869
Обязательно, ребят, пожалуйста,
2675
02:00:26,869 --> 02:00:28,869
кто дослушал до конца, пройдите по ссылкам
2676
02:00:28,869 --> 02:00:30,869
в самом первом описании. Это очень сильно поддержит
2677
02:00:30,869 --> 02:00:32,869
подкаст и поможет нам дальше выходить
2678
02:00:32,869 --> 02:00:34,869
в том же режиме. Обязательно
2679
02:00:34,869 --> 02:00:36,869
поставьте звездочку и лайк
2680
02:00:36,869 --> 02:00:38,869
на ютубе или на подкаст-платформу,
2681
02:00:38,869 --> 02:00:40,869
чтобы еще больше людей про нас узнали
2682
02:00:40,869 --> 02:00:42,869
и прокачивались в ИАЭ.
2683
02:00:42,869 --> 02:00:44,869
Я еще раз напоминаю, я этот подкаст делаю
2684
02:00:44,869 --> 02:00:46,869
с точки зрения
2685
02:00:46,869 --> 02:00:48,869
осведомленного оружием, а не с точки
2686
02:00:48,869 --> 02:00:50,869
зрения, ой, как классно, позитивно, смотрите,
2687
02:00:50,869 --> 02:00:52,869
в каком мы идеальном мире живем.
2688
02:00:52,869 --> 02:00:54,869
А я делаю с точки зрения, ой, как классно,
2689
02:00:54,869 --> 02:00:56,869
позитивно, смотрите, в каком мы мире живем.
2690
02:00:56,869 --> 02:00:58,869
Да, поэтому мы его записываем
2691
02:00:58,869 --> 02:01:00,869
онлайне, чтобы тут не было часовой драки.
2692
02:01:04,869 --> 02:01:06,869
Видите, Витя посмеялся прям как доктор зло
2693
02:01:06,869 --> 02:01:08,869
в этом фильме.
2694
02:01:08,869 --> 02:01:10,869
Не, не, подожди.
2695
02:01:10,869 --> 02:01:12,869
Ты подумал про
2696
02:01:12,869 --> 02:01:14,869
миньонов? Да, да, да.
2697
02:01:14,869 --> 02:01:16,869
А я, сказал доктор зло,
2698
02:01:16,869 --> 02:01:18,869
подумал про вот это,
2699
02:01:18,869 --> 02:01:20,869
блин, блин, напишите, как этот фильм
2700
02:01:20,869 --> 02:01:22,869
назывался, старый фильм, где был такой
2701
02:01:22,869 --> 02:01:24,869
лысый чувак с котом.
2702
02:01:24,869 --> 02:01:26,869
Я понял, Остин Пауэрс
2703
02:01:26,869 --> 02:01:28,869
назывался. Остин Пауэрс, да.
2704
02:01:28,869 --> 02:01:30,869
Ты Остин Пауэрс, в общем-то,
2705
02:01:30,869 --> 02:01:32,869
у нас...
2706
02:01:32,869 --> 02:01:34,869
А ты хорош.
2707
02:01:34,869 --> 02:01:36,869
Да, в общем, поддерживайте
2708
02:01:36,869 --> 02:01:38,869
нас, поддерживайте хорошее начинание,
2709
02:01:38,869 --> 02:01:40,869
поддерживайте проект, который вам нравится
2710
02:01:40,869 --> 02:01:42,869
из нашего подкаста. Обязательно подпишитесь,
2711
02:01:42,869 --> 02:01:44,869
кстати, на LinkedIn, Витя.
2712
02:01:44,869 --> 02:01:46,869
Ой, да, забыл уже сказать.
2713
02:01:46,869 --> 02:01:48,869
Забыли, забыли. Ссылочка будет в описании.
2714
02:01:48,869 --> 02:01:50,869
Витя там
2715
02:01:50,869 --> 02:01:52,869
прям нормальный контент такой постит.
2716
02:01:52,869 --> 02:01:54,869
Стараюсь. Кстати, в Инстаграме
2717
02:01:54,869 --> 02:01:56,869
у него контент хороший, я прям подчитываю.
2718
02:01:58,869 --> 02:02:00,869
Ну что, а с вами были
2719
02:02:00,869 --> 02:02:02,869
Айя Подкаст.
2720
02:02:02,869 --> 02:02:04,869
Айя Подкаст
2721
02:02:04,869 --> 02:02:06,869
развлекательный, образовательный,
2722
02:02:06,869 --> 02:02:08,869
искусственный, интеллектуальный
2723
02:02:08,869 --> 02:02:10,869
подкаст на русском языке.
2724
02:02:10,869 --> 02:02:12,869
Всем большое спасибо.
2725
02:02:12,869 --> 02:02:14,869
Пока-пока. И, как у нас говорится,
2726
02:02:14,869 --> 02:02:16,869
лайк, шер.
2727
02:02:18,869 --> 02:02:20,869
Anywhere. У меня идеально было.
2728
02:02:20,869 --> 02:02:22,869
У меня тоже.
2729
02:02:22,869 --> 02:02:24,869
Всё, пока-пока.
2730
02:02:24,869 --> 02:02:26,869
Всё, всем спасибо, пока-пока.
2731
02:02:26,869 --> 02:02:28,869
Блин, у нас первый раз идеально получилось.
2732
02:02:28,869 --> 02:02:30,869
Ну, у меня был
2733
02:02:30,869 --> 02:02:32,869
жуткий рассинхрон, если что.
2734
02:02:32,869 --> 02:02:34,869
А у меня прям идеально. Вообще.
2735
02:02:34,869 --> 02:02:36,869
Буква в букву.
2736
02:02:36,869 --> 02:02:38,869
Ну, потом проверим,
2737
02:02:38,869 --> 02:02:40,869
как оно вышло.
2738
02:03:02,869 --> 02:03:04,869
Субтитры делал DimaTorzok
2739
02:03:32,869 --> 02:04:00,869
Субтитры делал DimaTorzok
2740
02:04:00,849 --> 02:04:22,609
Background music playing.
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment