ニューラルネットワークはポケモンの夢を見るか

TensorFlow(及び、ニューラルネットワーク)を使用して以前からやってみたいと思っていたことは数値処理だったりします。今回それに関して試してみることにしました。

対象を探していた時、ポケモン・サン&ムーンを見て思いつきました。フェスサークルのアトラクションに「タイプ相性 診断!」というのがあります。このミニゲームでは効果が「バツグン」なものを判断するというテーマになっています。例えば、その対象が「むし」「くさ」だと答えはほのおとなり、 「こうかはバツグン」ということになりポイントが入ります。この相性として、弱い順から「効果がない」, 「効果は今一つ」, 「普通」そして「効果はバツグン」という4つに別れます。

相性は表になっていますので、機械学習の余地が入る部分はあまりないのですが、はたして失敗から学ぶというアプローチは可能かどうかを試してみることにしました。

かなりのフェスチケットを消費して80ケース程度のログを貯めることができました。このようなデータを処理するための前処理など、初心者でありますので、何らかの参考文献を探したのですがTensorFlowは画像処理に偏った情報が多く、似たようなアプローチを取っているものとしてmtitg氏による、TensorFlowを使ったディープラーニングでタイタニックの生存予測という記事に行き当たりました。

氏の例では8個のパラメータを使用していますがポケモンでは3つのパラメーターになります。こちらで紹介されているコードはテキストのデータの前処理なども含め、非常に参考になるものでした。

こちらを当てはめたコードを使用して検証してみました。結論から言うと、80件程度のデータからは50%ほどの正答率しか得ることしかできませんでした。これは次の理由があるように思われます。

  • 手動で集めたデータであるため、データのバラエティが少なく、かなり多岐に渡るポケモンの相性の組み合わせを考えると一部しかカバーできていない。
  • 「普通」のデータが多すぎる。例えばほのおに影響を与える「むし」など、そういったものがない場合は「普通」になってしまう場合が多い。そのため、データは「普通」に傾いてしまい、他の3つのものよりも多くなってしまっている。
  • ニューラルネットワークはこの手の構造化されたデータには向かないのかもしれない。ロジスティック回帰やベイズアルゴリズムに向いた課題なのかも知れない。

結論

先に書いたように、相性のデータが存在している以上、あまり実用向けとは言えないが学習と楽しみには適切に感じました。

さらなる最適化と研究により、TensorFlowや機械学習はすでに存在するデータセットなどに対して、その中から意味ある見地を読み取るのに非常に有用であると感じ、また、さらなる価値を見出すことができるのではないかと考えます。画像認識や自動運転車など機械学習の応用として非常にクールではありますが、すでに手持ちのPCなどでこの技術を応用するという点に関して決して軽視されるべきではない分野なのではないかなと感じます。

PythonベースのノートブックシステムJupyter

最近よく使用しているツールでJupyterというのがあります。

特徴は

  • Pythonベース、元はIPythonというもので、インタラクティブなPython環境を提供するシステムだった。
    • 今はPython以外も使えるようになったので、Project Jupyterとなった。IPython自体はインタラクティブなPython環境を提供するものとして開発が続けられていて、JupyterもPython実行部分では使用している。
  • 表記記法としてMarkdown(LaTeX文法も使える!)を使用可能。
  • コード部分はノート内で実行可能。

というようなものです。(個人的にはPythonでしか使っていないので、他の言語部分については使用感などはよくわかっていません……。)

個人的に気に入っている点は

  • Pythonの様々な機能を利用できる。例えば、Tensorflowなどのライブラリも使える。目的に応じてSciPyNumPyを利用して高度な計算やプロットなどをしたり、SymPyを使用してCAS(数式処理システム)として使用できたり、Pandasや各種のPythonの内蔵のライブラリを使ってデータベースへのアクセスなどができたりします。
  • ノートは保存して共有できるので情報共有も可能。尚、nbviewerというのも存在しておりオンライン上に存在するノートブックを閲覧することも可能です。GitHubGistなどはこのため、ノートブックファイルを表示することが可能。
  • コードをPythonとして保存することも可能なため、インタラクティブに実行するPythonコード開発環境としても使える。表記したノートなどはコメントとして出力してくれる。

導入は個人的にはLinuxとWindowsで試しましたが、Anacondaを使用するのが一番楽だと思います。

(ちなみにAnaconda自体は商業プラットフォームとして追加のモジュールを販売していますので、特に業務利用などで追加のサポートや機能が必要で予算が取れる場合は、そのような方向にスケールできる、というメリットもあります。個人使用にはお高いですが……。)

もちろん特にLinuxの場合はそのままpipを使用してJupyterを入れるという方法もあります。

また気が向いたら細かい部分についても解説していきたいと思います。