初めてコラムを書きます、伊賀上です。
データサイエンティストとして働いていて、データの分析やらAIの作成を行っています。そんな関係で今回はAIについて書こうと思います。
AIの定義って?

AIって、これだけ世の中で使われているにも関わらず、統一された明確な定義がされていないのです。
偉い方々がそれぞれの考えで定義しています。
・人工的につくられた人間のような知能、ないしそれをつくる技術 (東京大学 松尾豊)
・「知識を持つメカ」ないしは「心を持つメカ」である (京都大学 西田豊明)
・人工的につくられる知能であるが、その知能のレベルは人を超えているものを想像している (電気通信大学 栗原聡)
私個人の考えとしては「AI=東大の松尾先生」のイメージが強いので「人工的につくられた人間のような知能、ないしそれをつくる技術」を推しています。
AIは関数である
会社で業務を行うにあたり、AIの説明を求められるときがあります。
そのときは、勉強してきた中で一番しっくり来ている「AIは関数である」と説明を行っています。
y = f(X)
①「入力データX」に対する、「答えy」を準備する
②大量のXとyのセットから、Xとyを結び付ける最適な「関数f」を作成する。この「関数f」がAIです。
③質の良い「入力データX」と「答えy」のセットを大量に用意出来ると精度の高いAI(関数f)が作成されます
つまり、良いデータがないと良いAIは作れないわけです。AI界隈で“Garbage In, Garbage Out”という言葉があり、「質の悪いゴミみたいなデータを入れると、精度の低いゴミみたいなAIが出来る」という意味です。AIで何でも出来ると勘違いされないためにも広まってほしい言葉です。
AIは簡単に作ることが出来るのか?
プログラミング言語のpythonは、フレームワークが準備されているので簡単にAIが作れます。
また、最近はAutoMLというAIを自動で作るサービスもあります。(DataRobotやSageMaker AutoPilotなど)
しかし、AIを作ることは簡単ですが、業務で使うようなAIを作るためにはデータ集めが重要です。
実際には下記のサイクルを回しつつ、質の良いデータを集めていきます。
①今持っているデータを分析し、現状のデータの質を分析する(使えるデータか確認する)
②項目を組み合わせたり、基本統計量(平均や分散など)を使いデータ項目を拡充させる
③AIを作ってみる
④目指す精度のAIが出来なかった場合は、データ量を増やすor新規項目を追加する
⑤分析(①や②)からやり直す
データを集める労力が大変なので、企画の段階でビジネスインパクトを明確にすることが大切となるのですが、そこら辺の話は別の機会に書くことにします。
分析して欲しいデータを募集してます!

AIのことを書いておきながら、現状を知るためのデータ分析が大切だと思います。データは溜まっているように見せかけて、質の良いデータがない場合も多いので・・・。
自社のデータ、もしくはたてヨコで溜まっているデータで分析してほしいという方がいれば、ご連絡ください。僕も勉強になるので沢山のデータに触れたいです。
最後に
初のコラム、拙い文章ですが最後まで読んでいただき、ありがとうございます。
また機会を与えてくれた、たてヨコ愛媛の運営の皆様、ありがとうございました。
次回もデータサイエンス関係の記事を書きたいと思います。