Pinscreenなど、1枚の顔画像からモバイル端末に写実的な3Dアバターを作成し、自身の顔を介して動かせるdeep learningモデル「paGAN」を発表 2018-11-26 Pinscreen、南カリフォルニア大学、USC Institute forCreativeTechnologiesの研究者らは、1枚の入力顔画像から、モバイル端末に3Dアバターを作成し、自身の表情を介して制御できるdeep learningモデル「paGAN(photoreal avatar GAN)」を発表しました。 論文:paGAN: Real-time Avatars Using DynamicTextures 著者:Koki Nagano, JaewooSeo, Jun Xing, Lingyu Wei, Zimo Li, Shunsuke Saito, Aviral Agarwal, Je

Rで表情解析をします。Microsoft のEmotionAPI をRから動かす形になります。 azure.microsoft.comEmotionAPI は画像の中の人物の表情を入力として取り、FaceAPI を使って画像の中の顔それぞれについて一連の感情の信頼度と、顔の境界ボックスを返します。ユーザーがすでに FaceAPI を呼び出している場合は、オプション入力として顔矩形を指定することができます。 検出される感情は、怒り、軽蔑、嫌悪感、恐怖、喜び、中立、悲しみ、驚きです。これらの感情は、文化が異なっても特定の表情を伴って広く交わされると理解されています。 ということで、画像から人物の顔を抽出して、その表情を8つの指標で評価してくれます。 対応している画像は、4MB未満のJPEG、PNG、GIF、BMPとのこと。EmotionAPI を利用するにはAPIキーが必要に

An Important Update from Bellus3D, Inc. We want to provide you with an important update regarding Bellus3D. Since launching our business in 2015, we couldn’t be more proud of the 3D face scanningtechnologies we’ve been able to provide to you. While we are pleased with our accomplishments along this journey, we’ve made the decision to wind down Bellus3D by the end of2022. Please see the following

家の中にあるコンセントって顔っぽく見えない? 3つの点が集まったものを見ると、顔に見えてしまう現象のことをシミュラクラ現象と言うのだそうです。 参考:シミュラクラ現象 -Wikipedia 家の中をちょっと探しただけでも、コンセントをはじめとしていろいろと顔に見えるものがありました。壁のシミとかね。 どこに家にでもあるものでも、見ようによっては顔に見えることがあります。 家の中は顔顔顔顔顔顔顔顔顔顔顔顔顔顔顔顔顔顔顔顔顔だらけなのです。 こんなふうにね。 なんでもかんでも顔に見える 見える。 給湯器 ↓ 圧延ローラー ↓ 壁紙 ↓ 水道の蛇口 ↓ スピーカー ↓ 握力鍛えるグリップ ↓ ベニヤ板 ↓ バナナ ↓ まとめ こんな感じ。 描写しちゃうと完全にホラーですね。 ちなみに、身の回りのいろんなものが顔に見えることが多い人は、不安傾向が強いそうです。 まあ、こういうのが見える(ような気

A collection of computer vision examples for p5.js by @kcimc. Includingjsfeat, clmtrackr, js-objectdetect, JSARToolkit, oflow, and tracking.js. Download fromGitHub. Low level (analyzes single pixels):Empty Average Brightness Thresholding Brightest Point Color Detection Background Subtraction Frame Difference Medium Level (analyzes patches of pixels): Motion History Point Tracking Optical Flow E
今回も、前回に引き続き映像とのインタラクションについて考えていきます。 前回はOpenCVを使用して、映像解析の基本を体験しました。今回はより高度な映像解析の例として、顔の表情をトラッキングして解析する「フェイス・トラッキング (Face Tracking)」の技術を実際にプログラミングしながら体験します。 フェイス・トラッキングは計算量が多くProcessing単体では処理が追いつかないので、今回は解析部分はopnenFrameworksを使用します。openFrameworksで解析した結果をOSC (Open Sound Control) でProcessingに送出してその数値を元にProcessing側で視覚化して表現に利用していきます。 この手法は、このWSで今後行うセンサー(久世先生担当)の情報をProcessingで視覚化する際にも使用する手法です。しっかりマスターしましょ

Familiar faces get a mathematical twist in web designer IgorKochmala‘s Fibonacci Sequence-based photo series, Dr. Fibonazi’s Plastic Surgery Clinic. Like a digital plastic surgeon,Kochmala warps thevisages of celebrities like Jack Nicholson, Bryan Cranston, and Nicolas Cage in the exponential pattern of the “Golden Ratio,” which scientists have found in plants, hurricanes, and the spiral arms o

最近おそ松さんというアニメが流行っていますね。 6つ子のおそ松くんのアニメを現代版にアレンジした作品なのですが、その過程でそれぞれの兄弟の特徴が付けられています。 左から、おそ松、から松、チョロ松、一松、十四松、とど松で、順に長男次男三男・・・となっています。 簡単にまとめると、このようになります。 生まれ 名前 色 特徴 長男 おそ松 赤 クズ 次男 から松 青 ナルシスト 三男 チョロ松 緑 ツッコミ、意識高い系 四男 一松 紫 コミュ障 五男 十四松 黄色 マイペース 六男 とど松 ピンク 甘え上手、腹黒 それぞれの色を着ているときは、簡単に見分けられますが、そうでないときは見分けるのに困難を伴います。 髪や目つきにも特徴があるので、見分けることができるので、このような表を作ってらっしゃる方もいます。 それでも結構苦労したので、同じくディープラーニングで学習させたモデルで判別できない

皆さんこんにちは お元気ですか。私は人生元気に仲良くフリーダムに生きています。本日はDenoisingAutoEncoder(DAE)を使って実験してみたいと思います。DeepLearningの重みは可視化できます。他のブログで掲載されている 可視化について殆ど、MNISTだったので、今回試しに、 アニメ顔の特徴を抽出してみました。 データセット 今回の実験ではanimeface-character-datasetを使います。 Tile化して表示させるのが面倒だったので、Finderのスクリーンショットで お許し下さい。 ※7/13追記:animeface-character-datasetはanimeface-character-datasetから手に入ります。 ソースコード Chainerを使って記載しました。大部分のDAEのコードは Implementation of stack

マイクロソフトの顔認識+性年齢推定サービスが微妙に流行っている。 http://how-old.net/ まあワイワイやるだけならブラウザからで十分なのだが俺にはちょっとやってみたいことがある。 で、どうせwebAPIとかあるんだろ???ちょっと叩かせてくれよゲヘヘ???とか探してたらあるにはあったがAzureのmarket placeで該当サービスの登録が必要であり、しかも「お住まいの地域からは登録できません」とか言われて脱力。 仕方ないので類似サービスを探したらFACE++というのを見つけた。 簡単なdeveloper登録を済ませればAPI KEYとSECRETが発行されるので、それを使ってwebAPIを叩けば性年齢笑顔と色々な推定結果が得られる。 たとえば新垣結衣さん(女性・26歳)の結果は以下の通り。 > devtools::install_github("dichika/fa
このところDeep Learningが相当流行っているようで、ほとんど至るところで話題になっているのを見ます。 Deep Learningは深層学習とも呼ばれ、ニューラルネットワークの層をこれまでより深くして機械学習を行う技法です(だそうです)。 画像認識コンテストで他の方法と比べて非常に高い精度を示しており、以前は人の手で行っていた特徴の抽出まで行えます。 以前であれば車を認識するには車はどのような特徴を持っているかを人がモデル化して入力していたわけですが、この特徴を入力画像と与えられたラベルからニューラルネットワークが捉えてくれます。詳しいことはDeep Learningで検索して出てくる記事やスライドを参照のこと。 Deep Learning自体は容易に実装可能なものではなさそうですが、多くの研究グループがDeep Learningを行うためのソフトウェアをオープンソースにしているた

やったこと 顔などの特定の物体がどこにあるかを認識するときにはカスケード分類器というものをつかいます(物体検出 —opencv v2.1 documentation)。ここではOpenCVによるアニメ顔検出ならlbpcascade_animeface.xmlで公開されているアニメ顔検出器を使っています。 #include <opencv2/opencv.hpp> using namespace std; using namespace cv; void detectAndDisplay(Mat image); CascadeClassifier face_cascade; int main(void){ //カスケードのロード face_cascade.load("lbpcascade_animeface.xml"); Mat image; image = imread("face.jp

先日書いたOpenCVでアニメ顔検出をやってみた - kivantium活動日記の続編です。アニメ顔を検出するところまではうまくいったので、今度はキャラの分類をやってみようと思います。環境はUbuntu 14.10です。 ひと目で、尋常でない検出器だと見抜いたよ まずは分類に使う学習用データを用意します。投稿から半年以上経つのにまだランキング上位に残っている驚異の動画ご注文はうさぎですか? 第1羽「ひと目で、尋常でないもふもふだと見抜いたよ」 アニメ/動画 - ニコニコ動画を使います。 動画のダウンロード Ubuntuならaptで入れられるnicovideo-dlというツールを使います。sudo apt-get install nicovideo-dl nicovideo-dl www.nicovideo.jp/watch/1397552685その後avidemuxでOP部分だけの動画を

JavaScriptを使って、写真の顔を認識、抽出して、その範囲を取得する方法を解説。Face Detectionを使います。

リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く