記事内に広告が含まれています。This article contains advertisements.iPhoneの写真アプリは機械学習技術を利用しブラジャーの写真まで抽出してくれるそうです。詳細は以下から。AppleはiOS 10から写真アプリに機械学習技術を、iOS 11では「Core ML」を導入し人が探したいものを入力するだけで自動的に抽出してくれる機能を搭載していますが、iOSの写真アプリでは「ブラジャー」というカテゴリも表示されるとして機械学習エンジニアやセキュリティ関係者の間で話題になっています。 ATTENTION ALL GIRLS ALL GIRLS!!!Go to your photos and type in the ‘Brassiere’ why areapple saving these and madeit a folder!!?!!?😱😱😱
Core ML Core MLは、学習モデル等をiOS /macOS上で利用する際に、開発者が専門的な知識を必要とせずに扱えるように補助するフレームワークです。WWDC2017で発表された際は、ARKitに並んで現地で反響の大きかった発表でした。 iOSでは、Core ML発表以前から機械学習を取り入れようとはしていました。ただ、そのためにはCIImageを利用した画像処理や、学習モデルへの入出力などのコーディングといった専門的な知識が必要でした。 Core MLの登場で学習モデルを確保できれば、以下の機能を使ってiOS /macOSアプリで機械学習しやすくなります。 学習モデルをiOS /macOSアプリで扱える形式に変換する(Core ML model) Core ML modelへの入力と出力を補助するフレームワーク アプリ内に組み込み、学習結果を受け取ることに特化したCore
![[iOS 11] Core MLで焼き鳥を機械学習させてみた](/image.pl?url=https%3a%2f%2fcdn-ak-scissors.b.st-hatena.com%2fimage%2fsquare%2fe02a5d3a03733d52ef4148d18c67cb36d9c7554d%2fheight%3d288%3bversion%3d1%3bwidth%3d512%2fhttps%253A%252F%252Fdevio2023-media.developers.io%252Fwp-content%252Fuploads%252F2017%252F09%252F400x400_sample_007.png&f=jpg&w=240)
AppleはWWDC 2017において、目玉となる各OSの機能として、機械学習フレームワーク「Core ML」を紹介した。Core MLは、macOS、iOS、watchOS、tvOSで利用でき、各OSで動作するアプリで、機械学習のモデルを非常に手軽に活用できるようになる。Appleは将来的に、デバイスに機械学習を処理するためのチップを搭載するのではないか、という噂も流れていた。今回のWWDCで発表されたデバイスには、そうした特定のチップの搭載はうたわれなかったのだが。Appleによると、すでに出荷済みのiPhoneやMacなどのデバイスでも、新しいOSを導入することで、機械学習を活用したアプリを開発、実行することができるとしている。次回紹介予定の「AR Kit」と同様に、既存のデバイスのほぼ全てで、機械学習を活かしたアプリを実行できる点が、Appleの戦略として重要な要素と言えるだろ

1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く