生成AIカンファレンス 〜徹底解剖「トップランナーから見た日本が挑む生成AIの最前線」〜 日時:5月8日(水) 10:00-18:30 形式:オフライン・オンラインのハイブリッド開催 場所:東京大学伊藤謝恩ホール(オンライン参加の方は配信URLをお送りします) 参加方法:下記イベントページより申込ChatGPT に代表される今日のAI ブームを牽引しているのは 大規模言語モデル(Large-scale Language Model, LLM) と言っても過言ではないでしょう。LLM とは大量のテキストデータを使ってトレーニングされた自然言語処理のモデルで、代表的なものに、GPT(OpenAI)、Llama(Meta)、PaLM(Google)があります。我々開発者は、事前学習されたこれらのモデルを使って簡単にアプリケーションを作ることができます。 LLM が遂行可能な言語的タスク LL

全3回のシリーズパート2の本記事では、GPTの能力と可能性をAttention/Transformerの仕組みをふまえて考察します。 というつもりでしたが、凄く長くなってしまったのでパート2は以下の3回に分けようと思います。 (2.1)各技術の定性的な説明(本記事) (2.2)Transformerのアルゴリズム詳細 (2.3)GPTの能力と可能性について 2.1 各技術の定性的な説明 自然言語の構造を考えてみる まず我々が使う言語についてちょっと振り返るところから話を始めましょう。 文や文章は、おおもとのデータである文字から始まって、単語、文節、句、節、文、文章、さらにその上の意味、という風に階層的な構造を持っていると我々は概念的に認識してますよね。 構文の階層 そして、各階層や階層間には、文法や語法といった言葉のルールがあります。 深層学習はその名の通り、層を深くしたニューラルネットワ

三崎律日 @i_kaseki Alt+F4の名前で「世界の奇書をゆっくり解説」等のゆっくり解説動画を作っています。アイコンは畠山モグ先生。書籍化した上に続編がでました→「奇書の世界史2」amazon.co.jp/dp/404605168X youtube.com/channel/UC_kiS…

なぜ人々は、ChatGPTという“トリック"に振り回されるのか? Google「Bard」参戦、チャットAI戦争の行方:清水亮の「世界を変えるAI」(1/8 ページ)OpenAIが2022年に発表した対話型AI「ChatGPT」の衝撃は、米国ビッグテック最強の一角であるGoogleを動揺させた。Googleは急ぎ「Bard」と名付けたAIチャットボットを投入し、巻き返しを図る。 側から見ていると急展開に心が躍る一方、果たしてこの戦いは本当に意味のあるものになっているのか。チャットボットを長年ウォッチしてきた筆者としてはハラハラする気持ちも少なくない。 まずは現状のAIチャットボット関連をまとめ、それからチャットボットの歴史を振り返り、現状、そして未来を予想してみたい。 深層学習チャットボット百花繚乱の2023年 最近になって深層学習をベースとしたチャットボットが注目を集めている。Open

ニューラルネットワークとは? では、スパイキングニューラルネットワークに入る前に基本からいってみましょう。 近年、人工知能の研究が盛んですが、その研究を支えている最もメジャーな技術は『ニューラルネットワーク』です。 ニューラルネットワークとは、生物の脳の神経細胞(ニューロン)をモデル化したものをネットワーク上に接続したものを指します。 現在そのニューラルネットワークを用いた、畳み込みニューラルネットワーク(CNN)、いわゆる『ディープラーニング』が至る分野で使われるようになりました。 しかし、現在使われているニューラルネットワークのほとんどは『形式ニューロンモデル』という、神経細胞をかなり単純化したものを使っています。 こちらの記事もオススメ! では、スパイキングニューラルネットワークとは? 形式ニューロンモデルにおいて、情報は実数値です。 例えば、画像の画素値であったり、気温であったり、

ろぼいん@一般人 @keita_roboin @Larva06_com の技術開発部兼企画部リーダー(白土玲衣)のメインアカウント。RTめっちゃ多い。ブルアカ、動画編集とプログラミングが趣味。デザインはちょっとできる。サブ @orizin_project ブログ robot-inventor.github.io youtube.com/channel/UCJFnl… ろぼいん@VTuberではない @keita_roboin (見かけたから一応書いておくけど、AIは既存のイラストを切り貼りしているわけではない。内部の仕組みは違うけど、どちらかといえば人間がイラストを観察して学習するのに似てる)2022-10-05 17:08:21 ろぼいん@VTuberではない @keita_roboin じゃあどういう仕組みかというと ・画像と、それにノイズを加えたものを用意する ・ノイズを加えた画像

0. 忙しい方へ 完全に畳み込みとさようならしてSoTA達成したよ Vision Transformerの重要なことは次の3つだよ 画像パッチを単語のように扱うよ アーキテクチャはTransformerのエンコーダー部分だよ 巨大なデータセットJFT-300Mで事前学習するよ SoTAを上回る性能を約$\frac{1}{15}$の計算コストで得られたよ 事前学習データセットとモデルをさらに大きくすることでまだまだ性能向上する余地があるよ 1. Vision Transformerの解説 Vision Transformer(=ViT)の重要な部分は次の3つです。 入力画像 アーキテクチャ 事前学習とファインチューニング それぞれについて見ていきましょう。 1.1 入力画像 まず入力画像についてです。ViTはTransformerをベースとしたモデル(というより一部を丸々使っている)ですが、

1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く