Что касается опасности/безопасности — можно ли использовать системы ИИ или нельзя? Нельзя использовать системы генеративного искусственного интеллекта на критическом пути. Это значит, что в каких-то критических системах генеративный ИИ недопустим. Почему? Потому что генеративный ИИ, то есть генерирующий что-то сам, самообучающаяся модель, по определению "глючная". А это значит, что если мы ставим ее куда-нибудь в объект критической информационной инфраструктуры, и не дай Бог он нам выдаст "глюк", то кто потом будет нести ответственность? Поэтому — можно использовать, но не на критическом пути. Когда мы используем в качестве подсказки — это не является критичной вещью, а когда, допустим, нам система будет определять что-то про людей — это уже совсем нехорошо и недопустимо.
... многие просто берут готовые модели типа ChatGpt или китайской DeepSeek и на базе их решают какие-то задачки. Полученные результаты, помимо обычных "глюков" ИИ, несут в себе еще риски зависимости от иностранной технологии (например, политическую повестку или риск утечки информации). В случае же ГигаЧат глюки будут свои, отечественные. (Впрочем, с политической повесткой там тоже не очень. Например, модель отказывается отвечать на вопросы про Крым, СВО и новые территории, если они заданы по-английски).