皆さん

今回はOpenCVの利用で耳を検証する方法をご紹介させていただきます。内容は下記となりますので、ご参考しましょう!

1. OpenCVについて

まずはOpenCV(Open Source Computer Vision Library)については簡単に説明します。OpenCVとはインテルが開発・公開したオープンソースのコンピュータビジョン向けライブラリ(Wikipedia

2. 「Haar Cascade」の方法でオブジェクトを検出する。

オブジェクト検出はいくつ方法がありますが、今回は「Haar Cascade」という方法を利用します。ただ、「Haar Cascade」については、知識がかなり多いですが、簡単に説明させていただきます。

その方法は、オブジェクトの画像から特徴量を抽出して、それぞれの特徴量は単一の数値であり、黒の矩形の位置の画素の輝度の合計から白の矩形の位置の画素の輝度の合計を差し引いたものです。そのあとは一杯の画像からトレーニングして、結果XMLファイルを作成します。

詳しくはこのリンクをご参考ください。

※このブログ内容の限り、結果XMLファイルの作成方法を話しないです。利用方法のみ紹介します。

3. OpenCVをSwiftのプロジェクトに組み込む

  • まずはOpenCVページからiOSのOpenCVライブラリをダウンロードして、プロジェクトにインポートします。
  • もともとSwiftがOpenVCライブラリーのFunctionを直接にコールできないので、「Bridging header」を作成する必要があります。ソースコードで「OpenCVWrapper.h」と「OpenCVWrapper.mm」を作成します。

  • SwiftのソースコードでWrapperのFunctionをコールできるようになりました。

 

4. 「Haar Cascade」のXML結果ファイルで耳検出機能を実装します。

左耳と右耳の特徴が違いますので、2ファイルが必要です。”haarcascade_rightear.xml”と”haarcascade_leftear.xml”になります。そのファイルを読んで、耳の画像から耳を検出します。

 

結果はこんな感じになりますね。

 

★会社紹介★

私達bravesoft(ブレイブソフト)は「最強のものづくり集団」を目指し、
新しいものへの果てしない挑戦を日々繰り広げております!
その中で一緒に働いてくれる仲間も積極採用中ですので、是非お問い合わせください!

<基本情報>
bravesoft オフィシャルホームページ
採用情報
受託開発紹介
UI/UXデザイン紹介

<自社事業>
eventos
Live!アンケート
Appvisor Push

投稿者プロフィール

トゥー

トゥー