Результаты поиска по 'объяснимый искусственный интеллект':
Найдено статей: 3
  1. От редакции
    Компьютерные исследования и моделирование, 2026, т. 18, № 2, с. 205-208
    Editor’s note
    Computer Research and Modeling, 2026, v. 18, no. 2, pp. 205-208
  2. Середа-Калинин П.Ю., Власова А.С.
    Объяснимый искусственный интеллект: принципы, методы и применение
    Компьютерные исследования и моделирование, 2026, т. 18, № 2, с. 211-241

    Объяснимый искусственный интеллект (Explainable AI, XAI) представляет собой область искусственного интеллекта, направленную на создание методов и инструментов для генерации интерпретируемых и понятных для человека объяснений решений ИИ. Актуальность объяснимости моделей возрастает по мере внедрения искусственного интеллекта в критически важные сферы (медицина, финансы, юриспруденция), где непрозрачность алгоритмов может приводить к серьезным последствиям для пользователей и общества. В работе представлен аналитический обзор современного состояния области XAI, охватывающий теоретические основы, методологию и практические применения.

    Рассматриваемые методы объяснимого ИИ были отобраны и систематизированы на основе многоуровневой классификации методов XAI по постановке задачи (цель, целевая аудитория, тип данных), методологии (стадия применения, модель-специфичность, методы, масштаб) и форме результата (представление, презентация, метрики оценки).

    Проведен сравнительный анализ методов объяснимого ИИ для различных областей применения. Для классического машинного обучения детально рассмотрены SHAP и LIME с выявлением их теоретических оснований, вычислительных характеристик и ограничений. Для компьютерного зрения систематизированы градиентные методы (SmoothGrad, Integrated Gradients), методы визуализации активаций (Grad-CAM, Grad-CAM++), методы на основе возмущений (RISE, Occlusion) и концептуальные объяснения (TCAV, Network Dissection). Особое внимание уделено специфике применения XAI к обработке естественного языка и большим языковым моделям, включая анализ достоверности цепочек размышлений (Chain-of-Thought), естественно-языковых объяснений и методов на основе графов атрибуции. Выделены фундаментальные ограничения существующих подходов к объяснимости LLM и определены направления дальнейших исследований.

    Результаты обзора демонстрируют, что методы XAI достигли значительной зрелости в области классического машинного обучения и компьютерного зрения, однако применение к большим языковым моделям остается открытой исследовательской проблемой, требующей разработки новых парадигм объяснения.

    Sereda-Kalinin P.Y., Vlasova A.S.
    Explainable artificial intelligence: principles, methods and applications
    Computer Research and Modeling, 2026, v. 18, no. 2, pp. 211-241

    Explainable Artificial Intelligence (XAI) is a field of artificial intelligence aimed at creating methods and tools for generating interpretable and human-understandable explanations of AI decisions. The relevance of model explainability increases with the deployment of artificial intelligence in critical domains (healthcare, finance, law), where algorithmic opacity can lead to serious consequences for users and society. This work presents an analytical review of the current state of the XAI field, covering theoretical foundations, methodology, and practical applications.

    The examined explainable AI methods were selected and systematized based on a multi-level classification of XAI methods by problem formulation (goal, target audience, data type), methodology (application stage, model-specificity, methods, scale), and result form (representation, presentation, evaluation metrics).

    A comparative analysis of explainable AI methods for various application domains is conducted. For classical machine learning, SHAP and LIME are examined in detail, revealing their theoretical foundations, computational characteristics, and limitations. For computer vision, gradient-based methods (SmoothGrad, Integrated Gradients), activation visualization methods (Grad-CAM, Grad-CAM++), perturbation-based methods (RISE, Occlusion), and conceptual explanations (TCAV, Network Dissection) are systematized. Special attention is paid to the specifics of applying XAI to natural language processing and large language models, including analysis of the faithfulness of Chain-of-Thought reasoning, natural language explanations, and attribution graph methods. Fundamental limitations of existing approaches to LLM explainability are identified and directions for future research are defined.

    The review results demonstrate that XAI methods have reached significant maturity in classical machine learning and computer vision, however, their application to large language models remains an open research problem requiring the development of new explanation paradigms.

  3. Кайсрани С.Н., Хаттак А., Зубаир Асгар М., Кулеев Р., Имбугва Г.
    Эффективная диагностика сердечно-сосудистых заболеваний с использованием композиционного глубокого обучения и техники объяснимого искусственного интеллекта
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1651-1666

    Сердечно-сосудистые заболевания на протяжении последних десятилетий представляют собой серьезную угрозу здоровью населения во всем мире, независимо от уровня развития страны. Ранняя диагностика и постоянный медицинский контроль могли бы значительно снизить смертность от этих заболеваний. Однако существующие системы здравоохранения зачастую не в состоянии обеспечить необходимый уровень мониторинга пациентов из-за ограниченных ресурсов.

    В рамках нашего исследования мы использовали метод SHAP для объяснения работы модели глубокого обучения Bi-LSTM+CNN, разработанной для прогнозирования сердечно-сосудистых заболеваний. Путем балансировки данных и применения кросс-валидации мы достигли высокой точности (99,05%), полноты (99%) и F1-меры (99%) модели. Интерпретируемость модели, обеспечиваемая методом SHAP, повышает доверие медицинских специалистов к полученным результатам и способствует более широкому внедрению искусственного интеллекта в клиническую практику.

    Qaisrani S.N., Khattak A., Zubair Asghar M., Kuleev R., Imbugva G.
    Efficient diagnosis of cardiovascular disease using composite deep learning and explainable AI technique
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1651-1666

    During the last several decades, cardiovascular disease has surpassed all others as the leading cause of mortality in both high-income and low-income countries. The mortality rate from heart disorders may be lowered with early identification and close clinical monitoring. However, it is not feasible to adequately monitor patients every day, and 24-hour consultation with a doctor is not a feasible option, since it requires more sagacity, time, and knowledge than is currently available.

    In this study, we examine the Explainable Artificial Intelligence (XAI) technique, namely, the SHAP interpretability approach, in order to educate the medical professionals about the Explainable AI (XAI) methods that can be helpful in healthcare. The XAI methods enhance the trust and understandability of both practitioners and Health Researchers in AI Models. In this work, we propose a composite Deep Learning model: Bi-LSTM+CNN model to effectively predict heart disease from patient data. After balancing the dataset, the Bi-LSTM+CNN model was used. In contrast to other studies, our proposed hybrid deep learning model produced excellent experimental results, including 99.05% accuracy, 99% precision, 99% recall, and 99% F1-score.

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"