機械学習の特徴などに関して

先日のニューラルネットワークはポケモンの夢を見るか、の記事ですが、記事中でも書いたように、基本的には「機械学習の余地が入る部分はあまりない」と書きましたが、その点に関してより詳しい解説を追加したいと思います。

まず、機械学習の特徴ですが、「プログラムが遭遇するケースを全て個別にプログラムをすることなく判断ができる技術」となります。通常、プログラムを組む場合、例えば、通常のアプリケーションなどではユーザーの入力に対し、どのような挙動を示すかがプログラムされています。例えば、ウェブブラウザにURLを入力するとそのページを読みだし、ウェブサイトが表示されます。これはウェブブラウザのプログラマがそのようにプログラムしたからです。

このため、すでに相性等が定義されているポケモンに関して言えば、機械学習を用いなくとも全てのケースに対しプログラムした方が信頼性が高い結果が得られることになります。(そもそもポケモン自体がそのようにプログラムされているわけです。)

上記とは異なり、機械学習が効果を発揮するのは以下のようなケースになります。

  • 入力する定義値やその組み合わせが膨大であり、全体をプログラムすることが現実的でない場合。
  • 期待される入力値に未知の部分や曖昧な部分が存在する場合。
  • 認識されるべき変化が非常に微細であるか、特徴が簡潔でない場合。(ある特徴を定義する特徴量が多く必要という点で、上記の定義値に関連します。)

上記を踏まえて、例えば、自動運転車の実現に非常に多大な労力が消費されているのは、認識する必要がある事項に関してほぼ無限の可能性があり、全てのケースに関してプログラムすることができないという点によります。(例えば、人が道に立っている、という認識をしたい場合、様々な天候や光の当り具合、人が立っている場所、その動きなどに対してその対応を全てプログラムすることは現実的ではありません。)

尚、例えば、信号などがその状況を発信したり、車同士が通信できたりすることにより、曖昧さは解消することができますので、現在は自動運転車は現行の車や環境と強調して走らせる、ということに比重を置いていますが、今後はその方面での交通インフラの検討は進むのではないかと考えます。

以前、GoogleのCEOが「自動車の方がコンピューターより先に発明されたのは間違いだった」というような発言をしていますが、そういう意味でもコンピューターが最初に発明されていれば、恐らく交通インフラ自体がそれを前提とする形になっていた、ということなのではないかと思います。

話をポケモンに戻すと、ポケモンの場合は各18種類の要素が最大2個まで重複できるような作りになっていますので、情報量的にはそこまで大きくなく、全てをプログラムするのはさほど困難ではありません。ただし、これが数百、数千となり、また重複もより多く可能などとなると全プログラムをするのは困難になってきます。(ただし、規則性を符号化することによって必ずしも全部を手作業で、ということにはなりませんが。)

ちなみに先日のポケモン要素判断のニューラルネットワークは、非常にシンプルなものというだけで、実はその延長に画像認識やその他の高度な認識があります。

今後、機械学習の「民主化」が進んでいくと思いますので、その一つとして個人的な研究テーマにしています。

ニューラルネットワークはポケモンの夢を見るか

TensorFlow(及び、ニューラルネットワーク)を使用して以前からやってみたいと思っていたことは数値処理だったりします。今回それに関して試してみることにしました。

対象を探していた時、ポケモン・サン&ムーンを見て思いつきました。フェスサークルのアトラクションに「タイプ相性 診断!」というのがあります。このミニゲームでは効果が「バツグン」なものを判断するというテーマになっています。例えば、その対象が「むし」「くさ」だと答えはほのおとなり、 「こうかはバツグン」ということになりポイントが入ります。この相性として、弱い順から「効果がない」, 「効果は今一つ」, 「普通」そして「効果はバツグン」という4つに別れます。

相性は表になっていますので、機械学習の余地が入る部分はあまりないのですが、はたして失敗から学ぶというアプローチは可能かどうかを試してみることにしました。

かなりのフェスチケットを消費して80ケース程度のログを貯めることができました。このようなデータを処理するための前処理など、初心者でありますので、何らかの参考文献を探したのですがTensorFlowは画像処理に偏った情報が多く、似たようなアプローチを取っているものとしてmtitg氏による、TensorFlowを使ったディープラーニングでタイタニックの生存予測という記事に行き当たりました。

氏の例では8個のパラメータを使用していますがポケモンでは3つのパラメーターになります。こちらで紹介されているコードはテキストのデータの前処理なども含め、非常に参考になるものでした。

こちらを当てはめたコードを使用して検証してみました。結論から言うと、80件程度のデータからは50%ほどの正答率しか得ることしかできませんでした。これは次の理由があるように思われます。

  • 手動で集めたデータであるため、データのバラエティが少なく、かなり多岐に渡るポケモンの相性の組み合わせを考えると一部しかカバーできていない。
  • 「普通」のデータが多すぎる。例えばほのおに影響を与える「むし」など、そういったものがない場合は「普通」になってしまう場合が多い。そのため、データは「普通」に傾いてしまい、他の3つのものよりも多くなってしまっている。
  • ニューラルネットワークはこの手の構造化されたデータには向かないのかもしれない。ロジスティック回帰やベイズアルゴリズムに向いた課題なのかも知れない。

結論

先に書いたように、相性のデータが存在している以上、あまり実用向けとは言えないが学習と楽しみには適切に感じました。

さらなる最適化と研究により、TensorFlowや機械学習はすでに存在するデータセットなどに対して、その中から意味ある見地を読み取るのに非常に有用であると感じ、また、さらなる価値を見出すことができるのではないかと考えます。画像認識や自動運転車など機械学習の応用として非常にクールではありますが、すでに手持ちのPCなどでこの技術を応用するという点に関して決して軽視されるべきではない分野なのではないかなと感じます。

PythonベースのノートブックシステムJupyter

最近よく使用しているツールでJupyterというのがあります。

特徴は

  • Pythonベース、元はIPythonというもので、インタラクティブなPython環境を提供するシステムだった。
    • 今はPython以外も使えるようになったので、Project Jupyterとなった。IPython自体はインタラクティブなPython環境を提供するものとして開発が続けられていて、JupyterもPython実行部分では使用している。
  • 表記記法としてMarkdown(LaTeX文法も使える!)を使用可能。
  • コード部分はノート内で実行可能。

というようなものです。(個人的にはPythonでしか使っていないので、他の言語部分については使用感などはよくわかっていません……。)

個人的に気に入っている点は

  • Pythonの様々な機能を利用できる。例えば、Tensorflowなどのライブラリも使える。目的に応じてSciPyNumPyを利用して高度な計算やプロットなどをしたり、SymPyを使用してCAS(数式処理システム)として使用できたり、Pandasや各種のPythonの内蔵のライブラリを使ってデータベースへのアクセスなどができたりします。
  • ノートは保存して共有できるので情報共有も可能。尚、nbviewerというのも存在しておりオンライン上に存在するノートブックを閲覧することも可能です。GitHubGistなどはこのため、ノートブックファイルを表示することが可能。
  • コードをPythonとして保存することも可能なため、インタラクティブに実行するPythonコード開発環境としても使える。表記したノートなどはコメントとして出力してくれる。

導入は個人的にはLinuxとWindowsで試しましたが、Anacondaを使用するのが一番楽だと思います。

(ちなみにAnaconda自体は商業プラットフォームとして追加のモジュールを販売していますので、特に業務利用などで追加のサポートや機能が必要で予算が取れる場合は、そのような方向にスケールできる、というメリットもあります。個人使用にはお高いですが……。)

もちろん特にLinuxの場合はそのままpipを使用してJupyterを入れるという方法もあります。

また気が向いたら細かい部分についても解説していきたいと思います。