DiscoverБитовые маски: о системном программировании простыми словами
Claim Ownership
Битовые маски: о системном программировании простыми словами
Author: Елена Лепилкина и Антон Афанасьев
Subscribed: 38Played: 279Subscribe
Share
2024 © Елена Лепилкина и Антон Афанасьев. Все права защищены.
Description
Системное программирование и разработка процессоров — область довольно узкая. Но именно в ней работает множество отличных профессионалов, создавших продукты, которыми программисты пользуются ежедневно. Мы познакомим вас с этими экспертами, расскажем об актуальных задачах, которые решают в отрасли, и покажем варианты развития для системных программистов и тех, кто хочет ими стать.
16 Episodes
Reverse
В этом выпуске мы продолжим погружаться в тему системного программирования и познакомим вас с Дмитрием Точанским — инженером с опытом работы более 20 лет в сферах системного и embedded-программирования. Дмитрий пришел в системное программирование из системного администрирования, куда его привела любовь к Linux. А свой первый дистрибутив этой ОС Дмитрий получил еще в начале 2000-х чуть ли не из-под полы.
Как устроены системы цифровой обработки сигналов и какие аппаратные и программные решения там используются? Стоит ли использовать Linux в качестве real-time операционной системы? Какие проблемы есть при портировании Linux на RISC-V? Почему в ядре Linux еще не перешли на Rust и неизбежен ли уход с C? Какая архитектура ОС лучше: микроядерная или монолитная?
Эти и другие темы в 16-м выпуске обсудят с Дмитрием ведущие подкаста. Бонус для слушателей — рассказ о том, как охотились за пиратскими радиостанциями!
👉 30 октября на YADRO x SPbLUG Linux Kernel Meetup Дмитрий Точанский выступит с докладом о создании собственного модуля Memory Extender. Открыта запись на онлайн- и очное участие, присоединяйтесь: https://engineer.yadro.com/kernel-meetup-1/?utm_source=audiostream&utm_medium=referral&utm_campaign=bitmask_01102024
Видеоверсия выпуска: https://youtu.be/xCIJvf0879A✅Подписывайтесь на Telegram-канал подкаста: https://t.me/+bx50QfUlw4pkZDEy
🔹Станьте частью команды YADRO! https://careers.yadro.com0:00 — Тизер
0:40 — Представление Дмитрия Точанского
1:44 — Как Дмитрий пришел в системное программирование
4:00 — Работа в разработке встраиваемых систем и ЦОС
8:14 — DSP-процессора и работа с ними
14:32 — Работа с ПЛИС и "плисоводами"
16:20 — hal и операционные системы на DSP-процессорах
20:44 — Поддержка real-time в RTOS
24:49 — Использование Linux в real-time системах
30:45 — Contiguous Memory Allocator
32:54 — Гибкость Linux
35:11 — Монолитность и модульность ядра Linux
40:50 — Какая архитектура лучше: монолитная или микроядерная?
43:47 — DPDK как решение проблем с производительностью
47:13 — Портирование Linux на RISC-V SoC
48:54 — iommu
52:00 — Современные драйверы для Linux
55:48 — Проблема со стандартами
57:47 — Проблемы с iommu в RISC-V
59:26 — Множество fork-ов Linux
1:06:07 — Уровень поддержки микроархитектурных особенностей в Linux
1:09:15 — Патчи в upstream Linux
1:12:52 — Rust в ядре Linux
1:18:06 — Конкуренция других ОС с Linux
1:22:27 — Не умрет ли Linux
1:24:21 — Возможный сценарий распространения Rust в Linux
1:27:42 — Анонс Linux Kernel Meetup и доклада Дмитрия
1:29:20 — Заключение
В гостях у «Битовых масок» — Андрей Карпов и Юрий Минаев из PVS-Studio. Андрей более 15 лет занимается статическим анализом кода, изучает качество программного обеспечения и пишет статьи и книги о программировании на С++. Юрий, архитектор C++ анализатора PVS-Studio, глубинно дописывает и переписывает парсер и прочие внутренности C++ анализатора.В новом выпуске инженеры рассказывают о том, с чего начиналась разработка статического анализатора PVS-Studio и как работает команда сегодня.
Как устроен статический анализ и в чем главные отличия от линтера и фронтенда компилятора? Почему PVS-Studio не использует LLVM? Для каких диагностик важен Data-Flow анализ и насколько тяжело пока обходиться без CFG? Что нужно знать и уметь, чтобы попасть на работу в PVS-Studio? Что регулирует ГОСТ на статический анализ и правда ли он помогает в построении процессов? Разбираемся в этих вопросах в пятнадцатом выпуске «Битовых масок».
Видеоверсия выпуска на YouTube: https://youtu.be/fYWW5HRn9aY✅Подписывайтесь на Telegram-канал подкаста: https://t.me/+bx50QfUlw4pkZDEy
🔹Станьте частью команды YADRO! https://careers.yadro.com0:00 — Тизер
1:08 — Представление Андрея и Юрия
2:28 — Знакомство с программированием
6:50 — Поиск кадров в Туле
18:12 — С чего началась работа PVS-Studio
22:08 — Как Юрий пришел в разработку статических анализаторов
23:33 — Конкуренты PVS-Studio
25:15 — Статистический анализ
26:45 — Сравнение с clang-tidy
27:44 — Почему не используется LLVM
29:31 — Любимые и нелюбимые компиляторы
32:02 — Еще причины не использовать LLVM
33:44 — Ошибки в компиляторах
35:10 — Как компиляторы уменьшают количество ошибок
36:36 — Проблема с лямбда-функцией
37:48 — Стоит ли проверять все варианты компиляторов
39:59 — Разница между компилятором и статическим анализатором
41:13 — Этапы статического анализа и дополнительная метаинформация
47:53 — Перенос диагностик из статического анализа в компиляторы
51:06 — Сравнение с другими статическими анализаторами
54:31 — Внутреннее устройство PVS-Studio и самые сложные части
1:05:17 — Что можно улучшить в C++ и почему PVS-Studio написан на C++
1:08:51 — Диагностики в PVS-Studio
1:13:53 — Межпроцедурный и межмодульный анализы
1:15:22 — Data-Flow анализ
1:24:12 — ГОСТ на статический анализ кода
1:29:59 — Undefined behavior
1:34:52 — Появятся ли новые ошибки при обновлении компилятора
1:36:46 — Статический анализ для встраиваемого ПО
1:40:48 — Работа со сторонними библиотеками
1:45:05 — Диагностики для оптимизации кода
1:51:51 — Диагностики, специфичные для архитектуры
1:52:55 — Удаленные диагностики
1:54:06 — Планы на будущее PVS-Studio
1:55:28 — Заключение
Продолжаем знакомить вас с профессионалами в области низкоуровневого программирования. Гость нового выпуска — Пётр Советов, разработчик компиляторов для спецпроцессоров, специалист в сфере технологий компиляции и синтеза программ, преподаватель РТУ МИРЭА и известный докладчик профильных конференций.
В этом выпуске Антон Афанасьев обсуждает с гостем предметно-ориентированные языки, проектирование специализированных ускорителей и компиляторов, а также возможную пользу от изучения истории алгоритмов. Когда требуется новый предметно-ориентированный язык и компилятор для него? Есть ли в России сильные курсы по разработке компиляторов? Чем инженеру полезно знание экзотических языков? Почему наступает золотой век специализированной архитектуры? Есть ли практическая польза в изучении исследований прошлых лет? Ответы на эти и другие вопросы ждут вас в четырнадцатом выпуске подкаста.
Видеоверсия выпуска: https://youtu.be/UHFSEsiMVjY✅Подписывайтесь на Telegram-канал подкаста: https://t.me/+bx50QfUlw4pkZDEy
🔹Станьте частью команды YADRO! https://careers.yadro.com0:00 — Тизер
0:49 — Представление гостя
3:01 — Как Пётр начал программировать или игра в Basic
7:40 — Язык программирования Forth
12:08 — DSL-языки
22:11 — Учеба в университете
25:05 — Как писать на Forth
29:16 — Карьерный путь и задачи
45:30 — Этап стартапов
54:33 — Работа в вузе
1:01:44 — Компиляторные курсы в России
1:07:39 — Экзотические языки
1:10:42 — Что показывать студентам
1:11:41 — Точки притяжения системного программирования в России
1:13:40 — Будущее языков программирования
1:17:03 — Спецпроцессоры и важность codesign
1:25:00 — Расширяемость RISC-V и стандартизация
1:29:32 — Почему наступает золотой век специализированной архитектуры
1:32:00 — Программируемость ускорителей
1:36:57 — Инструменты для быстрой разработки компиляторов
1:49:21 — Супероптимизация
1:52:08 — История советской компиляторной школы
2:00:07 — Заключение
В гостях у «Битовых масок» — Игорь Астахов, инженер-программист, который разрабатывает высокопроизводительные библиотеки и занимается низкоуровневыми оптимизациями уже 25 лет. Он начал строить карьеру во времена, когда компьютеры были размером со шкаф, и стал сотрудником Intel в конце 90-х годов. Сейчас Игорь занимается оптимизацией реализаций различных DSP-алгоритмов в YADRO. Ведущие подкаста поговорили с ним о том, как писали машинный код три десятилетия назад, об особенностях высокоэффективного кода, векторизации и акселераторах.
Правда ли раньше писали и дебажили код на бумажке? До сих пор ли пишут на ассемблере для получения наилучшей производительности? Почему Intel Itanium — идеальный процессор? Как работают над переносом библиотеки на архитектуру, которая еще не появилась? Сможет ли AI создать высокопроизводительный код? Обсуждение этих и других вопросов ждет вас в тринадцатом выпуске «Битовых масок».
Видеоверсия выпуска: https://youtu.be/QFgfIisuybg Упомянутый доклад Валерии Пузиковой «Матричные расширения RISC-V»: https://www.youtube.com/watch?v=3p89pE3CA78Подписывайтесь на Telegram-канал подкаста: https://t.me/+bx50QfUlw4pkZDEyСтаньте частью команды YADRO! https://careers.yadro.com00:00:00 — Тизер
00:00:38 — Представление Игоря Астахова
00:01:31 — Как программировали в 80–90-е
00:12:03 — Появление первого офиса Intel в России
00:13:51 — Разработка высокопроизводительной библиотеки в Intel
00:19:26 — Почему Itanium — идеальный процессор?
00:25:53 — Идеальный код с точки зрения разработчика низкоуровневых оптимизаций
00:30:52 — Переход с ассемблера на интринсики
00:33:37 — Оптимизация самых популярных функций
00:37:31 — Измерение производительности низкоуровневых оптимизаций
00:41:55 — Performance-проблема на микроархитектурном уровне
00:48:28 — Взаимодействие с разработчиками процессоров
00:52:23 — Влияние руководителей на путь Intel
00:55:13 — Возможна ли реализация на С без интринсиков для низкоуровневых оптимизаций
00:59:16 — Методология разработки высокопроизводительных функций
01:09:33 — Работа с акселераторами
01:14:18 — Векторизация — основной способ оптимизации
01:16:55 — Может, надо такую библиотеку писать на C++?
01:18:59 — Какой тулинг используют
01:20:45 — Насколько перспективны новые технологии ИИ
01:23:05 — Заключение
Новый гость подкаста «Битовые маски» — Иван Углянский, известный разработчик JVM, член программного комитета Java-конференции SnowOne и один из создателей профиля «Системное программирование» в НГУ. Он соприкоснулся с процессом разработки компиляторов и рантаймов еще в старших классах школы, а после продолжал заниматься этим направлением в компании Excelsior. Елена Лепилкина обсудила с Иваном не только рантаймы, но и интероперабельность, новые Java-проекты Valhalla, Panama и Loom, а также высшее образование в области системного программирования.
Что входит в состав рантайма, кроме garbage collector? В чем особенности кода, который пишут рантайм-инженеры, и логов, которые они оставляют? На каких языках можно писать рантаймы? Чем нового и интересного принесут мега-проекты Panama, Loom и Valhalla? В чем проблемы интероперабельности через JNI? Что такое «техника кротов»? Ответы на эти и другие вопросы вы узнаете из двенадцатого эпизода подкаста.
Видеоверсия выпуска: https://youtu.be/kABHXttUOb4
00:00 — Тизер01:01 — Представление Ивана Углянского
01:58 — Начало карьеры Ивана
10:14 — Excelsior JET
13:28 — Как соблюсти спецификацию Java в AOT-компиляторе
17:21 — GraalVM
20:00 — Производительность AOT и JIT, как конкурировать с HotSpot
25:40 — Что входит в состав Runtime
27:30 — Как работает Java-профилировщик
32:36 — Баги в Runtime и как их дебажить
41:46 — Какие типы Garbage Collector'ов существуют
44:54 — Консервативные и точные GC: можно ли прикрутить GC к С++?
49:31 — Ситуация, где консервативный GC плох в Java
51:41 — Еще один интересный баг, или Как напугать клиента
56:45 — На каких языках можно писать рантаймы
1:04:45 — Интероперабельность в Java, механизм JNI и существующие проблемы
1:16:10 — Мегапроект Panama и интероперабельность с C++
1:22:29 — Был ли у Java период застоя? Проблема с Java 9
1:28:32 — Обратная совместимость Java: плюсы и минусы
1:31:28 — Существующие проблемы с системой типов, проект Valhalla
1:37:14 — Проект Loom и как реализованы виртуальные потоки в Java
1:49:17 — Проектная модель Java
1:53:19 — Кто такой системный программист?
2:00:17 — Как появился профиль «Системное программирование» в НГУ
2:04:42 — Чему и как учат на «Системном программировании»
2:08:54 — А нужно ли много системных программистов
2:13:21 — Взаимодействие с вузом и организационная работа
2:19:52 — Зачем курс по Python на профиле «Системное программирование»
2:22:09 — Что хочется улучшить
2:27:31 — Заключение
✅ Подписывайтесь на Telegram-канал «Битовых масок»: https://t.me/+bx50QfUlw4pkZDEy
В гостях у «Битовых масок» — Алексей Бродкин из Synopsys. Он работает в компании уже 16 лет и сейчас руководит инженерами, которые разрабатывают Linux и операционные системы реального времени. Поговорим с гостем об особенностях ОС и их поддержки для разных процессоров и архитектур. А еще обсудим на примере ARC-V, зачем большому вендору вкладываться в создание процессорного семейства, которое будет использовать набор команд открытой архитектуры RISC-V.
Почему вероятность появления новой большой и полноценной операционной системы очень мала? Что представляет из себя уровень аппаратных абстракций в ОС? Можно ли начинать разработку операционной системы до появления микросхемы в кремнии? Как взаимосвязаны прерывания, их обработчики и планировщик задач? Ответы на эти и другие вопросы — в одиннадцатом эпизоде «Битовых масок».Упомянутые полезные ссылки вы найдёте в описании к видеоверсии выпуска: https://youtu.be/e8CidbF_OiU00:00:00 — Тизер
00:01:31 — Вступление
00:01:50 — Представление Алексея
00:02:41 — Начало карьеры и текущая деятельность Алексея
00:07:00 — Микроконтроллер vs. микропроцессор
00:10:43 — ОС, над которыми работает команда Алексея
00:11:45 — Почему может появиться/не появиться еще одна ОС/RTOS
00:16:13 — Что такое ОС и зачем она нужна
00:20:41 — Создание драйверов
00:27:23 — Микроядерные ОС
00:32:40 — Уровень аппаратных абстракций: HAL и BSP
00:40:29 — Разница между полномасштабной ОС и RTOS
00:47:14 — Миграция фич из полномасштабных ОС в RTOS
00:57:41 — POSIX как механизм абстракции
01:01:16 — Дорастет ли Zephyr до полномасштабной ОС
01:05:59 — Управление проектом Zephyr RTOS
01:08:41 — Поддержка новой архитектуры в Linux
01:18:18 — Linux в гетерогенных системах
01:22:44 — Использование компонентов других производителей крупными производителями
01:26:11 — Обработка прерываний и планировщик задач в ОС
01:36:50 — Семейство ARC-V на базе RISC-V от Synopsys
01:50:03 — Заключение
01:50:41 — Благодарности✅ Подписывайтесь на Telegram-канал подкаста: https://t.me/+bx50QfUlw4pkZDEy
В этом выпуске мы возвращаемся на уровень разработки аппаратного обеспечения. В гостях у «Битовых масок» — Алексей Ковалов, руководитель группы модульной верификации в YADRO, который в прошлом успел поработать как в стартапе, так и в глобальной корпорации. Он расскажет, как устроен процесс верификации аппаратуры, а также какие языки и методологии в нем применяют.
Как инженеры принимают решение о том, что конкретный блок верифицирован? Нужно ли тестировать тестовое окружение? Какие особенности есть у языка SystemVerilog и можно ли писать TestBench на C++ или Python? Что такое «токсичные» интерфейсы? Является ли UVM серебряной пулей? Как выглядит рынок труда в hardware-разработке и как его особенности влияют на подходы к работе? Обсудим эти и другие связанные с верификацией вопросы в десятом эпизоде «Битовых масок».
Видеоверсия выпуска: https://youtu.be/A3Y5gb4YIt4Подписывайтесь на Telegram-канал подкаста: https://t.me/+bx50QfUlw4pkZDEy
0:00:00 — Тизер
0:00:46 — Представление Алексея
0:01:55 — Как Алексей попал в верификацию
0:08:33 — Как часто выходят новые стандарты SystemVerilog
0:11:22 — В чем заключается верификация аппаратуры, ее виды и подходы
0:25:29 — Особенности работы в командах с legacy-кодом
0:29:16 — Как должен работать верификатор и какие задачи у верификаторов
0:33:25 — Нужно ли писать тесты на сам TestBench
0:35:10 — Помощь от верификаторов для воспроизведения и фикса багов
0:39:55 — Особенности и магические сущности несинтезируемой части языка SystemVerilog
0:50:07 — Может ли верификатор верифицировать любые аппаратные блоки
0:51:15 — «Токсичные» интерфейсы (CHI)
0:54:19 — Верификация на VHDL
0:56:08 — UVM
1:01:49 — Проблемы с готовыми VIP от различных вендоров
1:07:23 — Проблемы UVM
1:10:56 — Уникальные вещи в SystemVerilog
1:16:11 — Верификация на С++
1:17:54 — Верификация на Python, cocotb
1:27:37 — Верификация на Chisel
1:29:47 — Особенности рынка труда в hardware-разработке
1:41:12 — Как проходят собеседования и их недостатки
1:58:15 — Заключение
Гость выпуска — инженер Дмитрий Рябцев, который начинал свою карьеру в команде Intel и больше 20 лет разрабатывал Intel VTune, инструмент анализа производительности программ для компьютеров на базе x86-процессоров. Дмитрий расскажет, как профилировщики устроены изнутри, а также даст подсказку, с чего стоит начинать профилирование различных систем.
Почему профилировщиков сравнительно немного? Какими они бывают? Как устроена аппаратная поддержка профилирования? Что скрывается за аббревиатурой TMA? В чем заключается фундаментальная проблема инструментов для анализа производительности программ? Почему Intel VTune долгое время был платным? Ответы на эти и многие другие вопросы — в девятом эпизоде «Битовых масок».
Смотреть видеоверсию выпуска: https://youtu.be/zIdySCwntXcКстати, у подкаста появился канал в Telegram. В нем мы будем публиковать анонсы новых выпусков, вместе с вами выбирать следующие темы для обсуждения и интересных гостей, а также делиться фотографиями и видео со съемок. Подписывайтесь по ссылке: https://t.me/+vCkZB-u3bgEyZDli 00:00:00 — Тизер выпуска
00:01:00 — Представление гостя
00:01:56 — Начало карьеры в Intel
00:04:44 — Зачем нужны профилировщики
00:08:14 — Типы профилировщиков и как они работают
00:12:01 — Профилировщики для нативных приложений и для систем с managed runtime
00:15:51 — Почему профилировщиков немного
00:16:52 — Почему Intel VTune был платным
00:19:15 — Фундаментальная проблема профилировщиков
00:22:19 — Влияние профилировщиков на результаты
00:26:20 — С чего начать профилирование сложной системы
00:28:44 — Особенности Intel VTune
00:31:03 — Аппаратная поддержка для профилирования
00:39:33 — Внутренние и внешние пользователи Intel VTune
00:42:17 — Top-down Microarchitecture Analysis Method
00:55:26 — Боятся ли вендоры реверс-инжиниринга
00:57:25 — Накладные расходы счетчиков
00:59:23 — Основные микроархитектурные bottlenecks
01:09:33 — Почему сложно сделать универсальный профилировщик для всех микроархитектур
01:13:58 — Верификация формул TMA для микроархитектуры
01:16:59 — Профилирование многопоточных приложений
01:23:44 — Заключение
Во второй части выпуска «Битовых масок» Константин Владимиров, инженер с 20-летним опытом разработки на C/C++, расскажет об особенностях разработки компиляторов для GPU. А также порассуждает о новых полезных вещах в стандартах C++ и объяснит, почему разработчикам компиляторов так важно знать стандарт.
Чем отличаются CPU и GPU? В чем сложность гетерогенного программирования? Почему MLIR не применяется в графических компиляторах? Как использовать LLVM для GPU-компиляторов, несмотря на его недостатки для подобных архитектур? Когда мешает SSA? Почему наличие undefined behaviour — это хорошо? Что может быть включено в C++26? Ответы на эти и другие вопросы вы узнаете из второй части выпуска.
Видеоверсия выпуска: https://youtu.be/_SIBiSR8rzM00:00:00 — Тизер второй части
00:01:00 — Отличия CPU и GPU
00:02:33 — Особенности компиляторов для GPU
00:04:31 — Сложности применения LLVM для GPU-компиляторов
00:06:43 — Spill’ы в шейдерах
00:10:45 — Сложность гетерогенного программирования
00:11:48 — Проблемы компиляторных инженеров
00:13:57 — Использование LLVM в GPU-компиляторах
00:19:27 — MLIR и возможность его применения
00:21:43 — Особенности языков для GPU
00:26:37 — Backend в GPU-компиляторах
00:27:12 — Интересный баг
00:32:56 — Стоит ли писать на ассемблере
00:34:19 — Почему важно знать стандарты C++
00:36:40 — Ошибка в Linux
00:39:26 — Польза undefined behaviour
00:46:04 — Новшества в C++23 и C++26
00:56:07 — Участие в разработке стандартов C++
01:01:30 — Заключение
В этом выпуске Константин Владимиров, занимавшийся разработкой компиляторов для CPU и GPU, расскажет о том достоинствах и недостатках GCC и LLVM. Константин опишет различные современные подходы к аллокации регистров, применяемых в компиляторах. А также поделится базовыми рекомендациями для пользователей компиляторов, желающих улучшить производительность своих программ с помощью компиляторов. Кроме того, мы обсудили животрепещущий вопрос об IT-образовании.
Насколько больно переходить на новые версии компилятора? По каким причинам выбирают LLVM? Какие достоинства и недостатки GCC и LLVM? Какие методы решения задачи аллокации регистров существуют? Насколько этот этап влияет на скорость работы программы? Почему инженерам полезно идти преподавать в ВУЗы? Какие проблемы есть у современного высшего образования в сфере IT? Ответы на эти и другие вопросы вы узнаете из этого эпизода. Больше интересного обсудим с Константином во второй части выпуска, которая выйдет чуть позже.
Видеоверсия выпуска: https://youtu.be/oXjS8mJk6VEСсылка на канал Константина: https://www.youtube.com/@tilir00:00:00 - Тизер
00:00:22 - В гостях Константин Владимиров
00:01:40 - Карьерный путь Константина
00:08:16 - Как Константин попал в сферу разработки компиляторов
00:10:05 - Процесс проектирования микроархитектуры
00:11:39 - Сравнение GCC и LLVM, преимущества и недостатки
00:15:47 - LLVM IR
00:16:41 - Все крупные системы должны быть переписаны на C++
00:17:18 - Преимущества C
00:18:57 - Наследие, оставшееся от С, в GCC
00:20:19 - Ниши gcc и clang
00:22:26 - Отсутствие бинарной совместимости для LLVM IR
00:24:42 - Различные методы аллокации регистров в компиляторах
00:34:47 - Как аллокация регистров влияет на качество сгенерированного кода
00:36:15 - Рекомендации для пользователей компиляторов
00:37:02 - Архитектурные решения проблемы аллокации регистров
00:40:07 - Польза преподавательской деятельности
00:43:43 - Собеседования при найме
00:45:27 - Что полезно для развития специалиста
00:46:56 - Проблемы IT-кафедр
00:52:10 - Участие компаний в высшем образовании
00:55:27 - Новогоднее пожелание будущим инженерам от Константина
В этом выпуске Александр Разинков, работавший во множестве компаний в сфере разработки встраиваемых систем, расскажет о том, как происходит передача данных в беспроводных сетях. Александр объяснит алгоритм работы передачи данных, а также расскажет о задачах операционных систем. Что может привести к замедлению передачи данных по Wi-Fi? Какие ограничения скорости передачи данных существуют? Насколько устройства отстают от самых современных стандартов? Для чего нужны гетерогенные системы? В чем отличие Linux от RTOS? Можно ли написать ядро ОС на C++? Эти и многие другие вопросы обсудили в этом выпуске «Битовых масок».Смотреть видеоверсию выпуска: https://youtu.be/IfRLOYb00kw00:00:00 - Вступление
00:01:38 - Начало работы в сфере встраиваемого ПО
00:05:03 - Сетевые протоколы, стандарты, особенности и сферы применения
00:09:24 - Ограничения и возможности для развития существующих и появления новых стандартов
00:12:40 - Модуляция сигнала
00:13:40 - Алгоритм передачи данных в сети без коллизий
00:17:19 - Что может создавать помехи для работы сетей
00:21:03 - Multi-user MIMO
00:25:00 - Отставание устройств от стандартов и протоколов
00:28:30 - Internet of Things
00:29:56 - Отладка беспроводных сетевых протоколов
00:35:10 - Гетерогенные системы
00:40:32 - Необходимость знания алгоритмов и особенности работы
00:43:37 - Комбинация baremetal и linux в гетерогенных системах и взаимодействие между ядрами
00:47:08 - ARM big.LITTLE
00:50:03 - Операционные системы, планировщик, отличия RTOS
01:07:29 - Можно ли написать ядро ОС на C++
01:11:17 - Заключение
В этом выпуске Никита Поляков, работавший в МЦСТ и Syntacore, позволит понять, как выглядит работа разработчика процессоров. Никита рассказал о различных специализациях, которые есть внутри профессии, какие тулы используются и на какие этапы делится разработка процессоров. В чем преимущества и недостатки архитектуры Эльбрус(VLIW) и RISC-V? Какие языки разработки аппаратуры бывают и в чем их отличие от языков программирования? Как происходит отладка? Как происходит синтез многоядерных процессоров? Нужно ли уметь обращаться с паяльником и осциллографом разработчику процессоров? Что вообще могут и в каком виде продавать компании, специализирующиеся на разработке аппаратуры? И многие другие вопросы обсудили в этом выпуске.00:00:00 - Тизер
00:00:52 - Представление гостя
00:02:17 - Как Никита стал разработчиком процессоров, учеба в МФТИ
00:05:33 - Начало работы в МЦСТ
00:06:45 - Различные специализации разработчиков процессоров
00:08:37 - Языки описания аппаратуры и инструменты для разработки процессоров
00:13:26 - Сходства Verilog и языков программирования
00:14:43 - Отличия Verilog и языков программирования
00:17:49 - Моделирование/верификация и синтез с помощью Verilog
00:20:50 - Автоматические и ручные оптимизации схемы во время синтеза
00:23:07 - Тулы симуляции и синтеза, этапы разработки
00:27:11 - Баги и процесс отладки
00:31:15 - Процесс синтеза больших устройств, синтез многоядерных процессоров
00:37:35 - Этап верификации аппаратуры
00:41:47 - Результирующие продукты, Soft IP
00:48:29 - Как справляться с багами в уже выпущенных модулях и процессорах
00:51:39 - Развитие языка Verilog и его стандарты
00:55:23 - Баги в тулах для разработки процессоров
00:58:26 - Chisel
01:04:25 - Архитектура Эльбрус
01:10:55 - Различия RISC-V и Эльбруса
01:22:17 - Где учиться разработке процессоров, что должен знать разработчик процессоров
01:25:46 - Связь между программированием и разработкой аппаратуры, миграция фич из ПО в аппаратуру
01:28:48 - Возможен ли переход в разработчики процессоров из другой специальности
01:35:42 - Нужны ли паяльник и осциллограф при работе
01:40:22 - Заключение
В этом выпуске Владимир Кемпик, имеющий опыт работы в Oracle, Azul и Syntacore, погрузил нас в мир JVM. Он рассказал об огромном разнообразии различных компиляторов и сборщиков мусора, применяемых в Java мире. Какие трюки для оптимизации кода может позволить себе JIT? Зачем нужны AOT-компиляторы? Какие альтернативные решения придумали JVM-инженеры, чтобы ужиться с запросами микросервисов? Как происходит поддержка новых архитектур в JVM? Почему бэкпорт поддержки RISC-V в JDK17 значимое событие?
00:00:00 - Тизер
00:00:47 - Представление гостя
00:01:41 - Работа в Oracle
00:03:21 - Работа в Azul и поддержка Apple M1 в JVM
00:08:53 - Базовые понятия: JRE, JDK, JVM
00:11:21 - Принцип "Write once, run everywhere"
00:12:49 - Мифы о Java
00:14:24 - Разнообразие сборщиков мусоров
00:16:42 - Баг с утечкой памяти
00:22:10 - Компиляторы и интерпретаторы в JVM
00:32:02 - Компиляторные оптимизации
00:38:24 - Компромисс между временем компиляции и эффективностью сгенерированного кода
00:40:49 - AOT-компиляторы в Java мире
00:42:24 - Альтернативные решения для быстрого старта микросервисов
00:45:52 - Чем компилировать C1 и С2
00:52:28 - Поддержка новой архитектуры в JVM
00:53:54 - Работа с разными версиями Java
00:56:20 - Поддержка RISC-V в JDK17 (LTS)
00:59:33 - Текущее состояние поддержки RISC-V в JVM
01:04:03 - Поддержка расширений RISC-V
01:08:19 - Поддержка runtime в самой архитектуре
01:14:22 - Учитываются ли особенности микроархитектуры процессора
01:16:48 - Перенос изменений в upstream JVM
01:18:57 - Заключение
Говорим с Антоном Колесовым о дебаггерах для C/C++, в основном о gdb. Опираясь на 10-летний опыт работы в команде отладчиков Synopsys, он рассказал о внутреннем устройстве отладчиков, DWARF, отладке gdb с его же помощью и кастомных тулчейнах, связи с компилятором и интеграции в IDE.
00:00:00 - моменты о бажных компиляторах и дебаггерах
00:00:36 - представление гостя
00:00:46 - учеба и начало карьеры
00:03:00 - легко ли построить GNU toolchain
00:04:30 - как Антон пришел к разработке дебаггеров
00:05:18 - внутреннее устройство дебаггеров
00:08:44 - dwarf-информация и почему виноваты компиляторы
00:22:12 - правильный алгоритм отладки
00:23:15 - как уронить gdb
00:23:53 - пишут ли код компилятора разработчики дебаггеров
00:24:18 - незавидная доля дебаггеров
00:26:04 - как отлаживать дебаггер
00:34:36 - баги в дебаггерах
00:37:01 - взаимодействие деббагера и операционной системы
00:39:56 - отладка многопоточных приложений
00:42:35 - non-stop debugging
00:45:06 - real-time tracing
00:51:52 - отличия работы дебаггера при отладке baremetal-приложений
00:56:38 - информация об архитектуре в дебаггере
01:03:59 - lldb vs gdb
01:10:29 - покупают ли сейчас коммерческие компиляторы и дебаггеры
01:12:16 - интеграция дебаггера в IDE
01:17:28 - заключение
В этом выпуске беседуем с Александром Чуйковым, который помогал клиентам из крупных компаний в отладке множества системных и встраиваемых приложений, работая в отделах технической поддержки STMicroelectronics, Synopsys и Syntacore. Он расскажет, как происходит отладка функциональных и performance проблем различных систем (в том числе и baremetal) на самом разном уровне и поделится примерами интересных и сложных багов.00:00:00 - Смешная история про баг00:00:30 - Представление гостя
00:02:25 - Чем занимается Customer Support в системном программировании и кто там работает
00:09:40 - Особенности отладки функциональных багов системных и низкоуровневых приложений
00:16:53 - Баг, воспроизводящийся только через долгое время
00:18:18 - Отладка многопоточных приложений на низком уровне
00:20:18 - Идеальный отладчик существует?
00:21:35 - Неожиданный и сложный функциональный баг, который долго пытались воспроизвести
00:24:27 - История о том, как чтение warning-ов компилятора может помочь при отладке
00:27:32 - Поиск и отладка performance-проблем
00:28:50 - Профилирование baremetal-приложений
00:30:42 - Изменение приложений для ускорения и портирования приложений на архитектуру
00:32:42 - Пример performance-проблемы из-за кэшей
00:34:20 - Как компиляторы могут помочь при наличии performance-проблем
00:40:36 - Reducing performance-проблем
00:42:10 - Когда нужно идти с проблемой к аппартчикам
00:42:50 - Тайные знания, которыми владеет отдел customer support
00:44:13 - История про проектирование процессора по интересным требованиям заказчика
00:48:02 - Помощь аппаратчиков при отладке сложных проблем
00:49:55 - Пример комбо-бага
00:53:55 - Когда и что стоит писать на ассемблере
00:56:02 - Реальные случаи одновременной отладки проблем людьми из разных команд
00:58:12 - Самый забавный баг
01:00:17 - Сколько NDA с клиентами подписал Александр за свою карьеру
01:01:59 - Заключение
В первом выпуске беседуем с Дмитрием Петровым – он участвовал в разработке С/С++ компилятора в МЦСТ и Kotlin компилятора в JetBrains. А теперь снова вернулся к компилятору C/C++, но уже для RISC-V архитектуры, в Syntacore.0:00:00 - Представление гостя0:01:53 - Устройство компилятора (верхнеуровнево)
0:03:33 - Задачи фронтенда и бэкенда компилятора
0:06:08 - Параллелизм на уровне инструкций, instruction scheduling
0:21:52 - Бенчмарки и performance компиляторов
0:25:21 - Взаимосвязь instruction scheduling и register allocation
0:31:12 - Начало карьеры: МЦСТ, Sun Microsystems
0:39:44 - Работа в Intel
0:43:37 - Разработка Kotlin-компилятора и работа в JetBrains
0:59:31 - Инструменты разработки
1:02:24 - Совет начинающим программистам
Comments
Top Podcasts
The Best New Comedy Podcast Right Now – June 2024The Best News Podcast Right Now – June 2024The Best New Business Podcast Right Now – June 2024The Best New Sports Podcast Right Now – June 2024The Best New True Crime Podcast Right Now – June 2024The Best New Joe Rogan Experience Podcast Right Now – June 20The Best New Dan Bongino Show Podcast Right Now – June 20The Best New Mark Levin Podcast – June 2024
United States