Skip to content

Instantly share code, notes, and snippets.

@niwatako
Created June 20, 2018 12:29
Show Gist options
  • Select an option

  • Save niwatako/9d96c31049185924647b7e57ffad048d to your computer and use it in GitHub Desktop.

Select an option

Save niwatako/9d96c31049185924647b7e57ffad048d to your computer and use it in GitHub Desktop.
『非機械学習エンジニアのCreate ML入門』 #CodePiece #ca_swift
CA.swift #6 WWDC18 報告会 - connpass
https://cyberagent.connpass.com/event/88328/
## 『非機械学習エンジニアのCreate ML入門』
森下 侑亮
Vision・CoreML用学習済みモデルをSwiftとPlaygroundで作成できる。作成した学習済みモデルのデータ量が小さい。
SiriとPhotosの機械学習基盤を利用している。70枚画像で学習して17kbだった
CreateMLで作成したモデルにはiOS12以上が必要
画像分類、テキスト分類、表データからのテキスト分類が可能。
### 画像データを使った学習モデルの作成の例
- 学習データの条件
- 画像枚数はそれぞれのラベルで10枚
- 各ラベルごとに同数用意する
- サイズはバラバラでもいい
- 縦横299px以上であること
- 画像フォーマットは何でもいい
学習データのパスと評価データのパスをそれぞれ指定してモデルを作れる。
CreateMLで学習モデルを作るにはPlaygroundで数行のコードでドラッグアンドドロップで作れる。
僕はキャベツとレタスの見分けがつかないので、CreateMLで分類してみたいと思います。
キャベツとレタスの画像を15枚ずつ。フォルダに分けておきます。フォルダの名前がそのままラベルになります。画像の名前はなんでも大丈夫です。このフォルダとPlaygroundにドラッグ・アンド・ドロップします。
数分で学習が完了します。
評価データを入れてテストしてみます。
85%、僕よりは高いかもしれない、という精度を出すことができました
基本的な処理の流れを理解するだけで学習済みモデルを作成できる。
クライアント側での機械学習の利用が現実的になりました。
詳しう知りたい人は Session 703 と資料を参照ください
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment