ISIR

The Institute of Scientific and Industrial Research, Osaka University

大阪大学
産業科学研究所

LAST UPDATE 2017/11/01

  • 研究者氏名
    Researcher Name

    原聡 Satoshi HARA
    助教 Assistant Professor
  • 所属
    Professional Affiliation

    大阪大学産業科学研究所
    The Institute of Scientific and Industrial Research, Osaka University

    第一研究部門・知能推論研究分野
    Department of Reasoning for Intelligence
  • 研究キーワード
    Research Keywords

    機械学習
    データマイニング
    人工知能
    Machine Learning
    Data Mining
    Artificial Intelligence
研究テーマ
Research Subject
機械学習モデルの解釈性向上
Improving Interpretability of Machine Learning Models

研究の背景 Background

機械学習を代表とする人工知能技術の発展により、我々の日常生活にも人工知能技術が徐々に浸透しつつある。近年の機械学習モデルは非常に複雑な構造をしており、内部でデータから何を読み取りどのような基準でもって判断を下しているからを人間が知ることはできない。ランダムフォレスト(数百本の決定木を組み合わせるモデル)や深層ニューラネット(多数のネットワークを層状に重ねたモデル)はこのような複雑なモデルの代表例である。現在の技術では、これらの複雑なモデルに判断の根拠を提示させることはできない。

Artificial Intelligence technologies such as machine learning are now getting ubiquitous in our daily lives. Most of popular machine learning models have very complex structure and it is therefore almost impossible for human to interpret the internal mechanism of the models. The examples are random forest, which is an ensemble of hundreds of decision trees, and deep neural networks, which consists of several network layers. These models are complete black-box, and it does not describe any reasons on their decisions.

研究の目標 Outcome

本研究の目標は、ランダムフォレストや深層ニューラルネットといった複雑なブラックボックスモデルに、その出力に関する根拠を提示させることでモデルの解釈性を向上させることである。ランダムフォレストの解釈性向上には、そのモデルの内部的な構造を一度分解して、人間が理解しやすいように再構成する方法が有用である。現在は、効果的かつ計算効率的な再構築方法の研究を進めている。これにより、従来ブラックボックスとされていたランダムフォレスの内部的な判断根拠を人間に明示的に伝えることができるようになる。

We aim at improving interpretability of complex machine learning models, such as random forest and deep neural network, by making their decision reasons to be transparent to human. In our current research, we focus on factorizing random forests into its building blocks and then reconstructing them so that the model to be interpretable. Specifically, we are working on developing effective and computationally efficient reconstruction algorithms.

研究図Research Figure

Fig.1. Two different data (shown in different colors, left figures) are classified using RandomForest (middle figures). RandomForest splits data into small fragments resulting in non-interpretable decisions. With our proposed method, the model can be simplified so that it is easy for human to interpret its decisions (right figures).

文献 / Publications

[1] Satoshi Hara and Kohei Hayashi. Making Tree Ensembles Interpretable: A Bayesian Model Selection Approach. arXiv:1606.09066, 2016.

[2] Satoshi Hara and Kohei Hayashi. Making Tree Ensembles Interpretable. In Proceedings of the 2016 ICML Workshop on Human Interpretability in Machine Learning, pages 81--85, 2016.

研究者HP