| 10.14489/vkit.2025.12.pp.023-030 |
|
DOI: 10.14489/vkit.2025.12.pp.023-030 Лютикова Л. А. Аннотация. Предложена интерпретация решений моделей машинного обучения, основанная на булевом интегро-дифференциальном исчислении. Модели машинного обучения показывают высокую эффективность в ряде областей применения, но имеют непрозрачный механизм принятия решения, что снижает возможности их использования как инструмента научного исследования. В предложенном методе модель рассматривается как «черный ящик». При этом строится аппроксимирующая булева функция, представляющая зависимость между признаками и диагнозами. Эта функция записывается в виде дизъюнктивной нормальной формы и позволяет проводить как глобальный, так и локальный анализ значимости признаков. В качестве примера рассмотрена задача диагностики трех заболеваний сердечно-сосудистой системы по клиническим данным. Проведенное сравнение с методами SHAP и LIME демонстрирует, что логический интерпретатор более удобен для специалистов. Полученные результаты подтверждают, что интеграция логических методов машинного обучения является перспективным направлением для развития объяснимого искусственного интеллекта. Метод эффективен в задачах классификации с дискретными или бинаризованными признаками и находит применение в областях, где требуется высокая степень интерпретируемости принимаемых решений. Ключевые слова: модель; интерпретация; логический анализ; булева производная; булев интеграл; объяснимый искусственный интеллект.
Abstract. In this work, a method for interpreting machine learning classification models is presented, based on Boolean integro-differential calculus. The approach addresses the persistent challenge of model transparency, particularly in high-stakes applications such as medical diagnostics. While contemporary machine learning systems achieve impressive predictive performance, they frequently operate as opaque structures, preventing experts from understanding the rationale behind predictions. The proposed method constructs an approximating Boolean function that mirrors the decision process of a trained model, expressed in disjunctive normal form. This representation enables comprehensive global analysis of feature relevance as well as local interpretation for individual cases, bridging the gap between abstract model outputs and domain-specific reasoning. The practical application of the method is demonstrated in the diagnostic classification of three cardiovascular diseases, using clinical data that include symptom profiles, risk factors, laboratory results, and electrocardiographic parameters. The logical interpreter not only preserves predictive accuracy but also generates explicit diagnostic rules, facilitating alignment with clinical decision-making practices. This advantage makes the method suitable for professional use in medicine, where interpretability is essential. A comparative evaluation with well-known interpretability techniques, SHAP and LIME, highlights the advantages of the logical approach. Unlike numerical feature attribution methods, which often require additional interpretation, the proposed system delivers clear logical rules that directly reflect the underlying diagnostic patterns. Moreover, the method ensures stability of results, reduces ambiguity, and provides specialists with actionable insights. This approach provides a formal mechanism for making the decision logic of machine learning models transparent and accessible, thereby enhancing their applicability in domains where interpretability is a critical requirement. Keywords: Model; Interpretation; Logical analysis; Boolean derivative; Boolean integral; Explainable artificial intelligence.
РусЛ. А. Лютикова (Институт прикладной математики и автоматизации КБНЦ РАН, Нальчик, Россия) E-mail: Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript EngL. A. Lyutikova (Institute of Applied Mathematics and Automation of the Kabardian Research Center of the Russian Academy of Sciences, Nalchik, Russia) E-mail: Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript
Рус1. Molnar C. Interpretable Machine Learning: A Guide for Making Black Box Models Explainable: 2nd ed. Leanpub, 2022. URL: https://christophm.github.io/interpretable-ml-book/ (дата обращения: 13.12.2025). Eng1. Molnar, C. (2022). Interpretable machine learning: A guide for making black box models explainable (2nd ed.). Leanpub. https://christophm.github.io/interpretable-ml-book/ (Accessed: 13.12.2025).
РусСтатью можно приобрести в электронном виде (PDF формат). Стоимость статьи 700 руб. (в том числе НДС 20%). После оформления заказа, в течение нескольких дней, на указанный вами e-mail придут счет и квитанция для оплаты в банке. После поступления денег на счет издательства, вам будет выслан электронный вариант статьи. Для заказа скопируйте doi статьи: 10.14489/vkit.2025.12.pp.023-030 Отправляя форму вы даете согласие на обработку персональных данных. .
EngThis article is available in electronic format (PDF). The cost of a single article is 700 rubles. (including VAT 20%). After you place an order within a few days, you will receive following documents to your specified e-mail: account on payment and receipt to pay in the bank. After depositing your payment on our bank account we send you file of the article by e-mail. To order articles please copy the article doi: 10.14489/vkit.2025.12.pp.023-030 and fill out the
.
|
Текущий номер
Разработка концепции и создание сайта - ООО «Издательский дом «СПЕКТР»