Падзяліцца:
ШОЛОМИЦКИЙ об искусственном интеллекте на службе Беларуси и цифровом суверенитете
  • Перадача: Актуальны мікрафон
  • Дата: 19.11.2025
ШОЛОМИЦКИЙ об искусственном интеллекте на службе Беларуси и цифровом суверенитете

Председатель Совета директоров группы компаний «БелХард» Дмитрий ШОЛОМИЦКИЙ – в программе «Актуальный микрофон» Дмитрия ВОРОНЮКА и Елены ДАВИДОВИЧ.

Позитив и негатив. Что вообще знают об ИИ и глубоко погружённые в тему специалисты, и простые обыватели? Может ли ИИ нести опасность цифровому суверенитету Беларуси, что делается для того, чтобы не произошло непоправимого и кто этим занимается?

Что такое LLM, принципы работы ChatGPT и аналогов, для чего нужна национальная языковая модель и как защитить данные?

Есть ли у нас компетенции и технический потенциал для создания локальной сети со всем инструментарием? Достаточно ли нам своей энергии, чтобы всё созданное эффективно работало? Вопросы цифрового регулирования и контроля актуальны во всём мире, а как у нас?

Какие отрасли наиболее активны во внедрении ИИ в нашей стране? Угрожает ли белорусам потеря работы из-за ИИ, цифровизации и роботизации? Оценка отечественной системы образования в части подготовки кадров для IT-сферы.

Готовится к утверждению Программа социально-экономического развития Беларуси до 2030 года. Будет ли в ней уделено внимание ИИ?

Какой бы хотел видеть Беларусь в ближайшем будущем наш гость?

Ответы на вопросы радиослушателей:

Почему появилось название искусственный интеллект, если это не человек, не биологический вид, к тому же лишённый эмоций и чувств?

Взгляды в будущее многих фантастов сбылись. Не грозит ли нам виртуальная реальность вроде «Матрицы» или «цифровой ГУЛАГ»?

За внедрением ИИ не следует забывать о духовном, моральном, эстетическом, психологическом образовании и воспитании.

Не забыт ли Первый закон робототехники Айзека Азимова и применим ли он к ИИ? Интересные скандально-показательные примеры из зарубежья!

О каком цифровом суверенитете мы можем говорить, если «главный кабель идёт за океан»?

Каб пакінуць каментар, аўтарызуйцеся: