東京大学がちょっとびっくりするくらいの超良質な教材を無料公開していたので、まとめました Python入門講座 東大のPython入門が無料公開されています。scikit-learnといった機械学習関連についても説明されています。ホントいいです Pythonプログラミング入門 東京大学 数理・情報教育研究センター: utokyo-ipp.github.io 東大のPython本も非常にオススメです Pythonによるプログラミング入門 東京大学教養学部テキスト: アルゴリズムと情報科学の基礎を学ぶ https://amzn.to/2oSw4ws Pythonプログラミング入門 - 東京大学 数理・情報教育研究センター Google Colabで学習出来るようになっています。練習問題も豊富です https://colab.research.google.com/github/utokyo-ip
はじめに Midjourney、Stable Diffusion、mimicなど、コンテンツ(画像)自動生成AIに関する話題で持ちきりですね。それぞれのサービスの内容については今更言うまでもないのですがMidjourney、Stable Diffusionは「文章(呪文)を入力するとAIが自動で画像を生成してくれる画像自動生成AI」、mimicは「特定の描き手のイラストを学習させることで、描き手の個性が反映されたイラストを自動生成できるAIを作成できるサービス」です(サービスリリース後すぐ盛大に炎上してサービス停止しちゃいましたが)。 で、この手の画像自動生成AIのようなコンテンツ自動生成AIですが、著作権法的に問題になる論点は大体決まっていまして、画像自動生成AIを例にとると以下の3つです1正確に言うと論点1はコンテンツ自動生成系AIだけではなく、AI一般に関して問題となる論点です。コン
Prompt Engineering Guide プロンプトエンジニアリングは、言語モデル(LMs)を効率的に使用するためのプロンプトを開発および最適化する比較的新しい学問分野です。プロンプトエンジニアリングのスキルを身につけることで、大規模言語モデル(LLMs)の能力と限界をより理解することができます。 研究者は、プロンプトエンジニアリングを使用して、質問応答や算術推論などの一般的なおよび複雑なタスクのLLMsの能力を向上させます。開発者は、LLMsやその他のツールとのインタフェースとなる強固で効果的なプロンプテクニックを設計するためにプロンプトエンジニアリングを使用します。 プロンプトエンジニアリングは、プロンプトの設計と開発に限らず、LLMsとのインタラクションおよび開発に役立つ幅広いスキルと技術を含みます。これは、LLMsとインタフェースすること、ビルドすること、能力を理解すること
We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks. We’ve created GPT-4, the latest milestone in OpenAI’s effort in scalin
新人: 「本日データサイエンス部に配属になりました森本です!」 先輩: 「お、君が新人の森本さんか。僕が上司の馬庄だ。よろしく!」 新人: 「よろしくお願いします!」 先輩: 「さっそくだけど、練習として簡単なアプリを作ってみようか」 先輩: 「森本くんは Python なら書けるかな?」 新人: 「はい!大学の研究で Python 書いてました!PyTorch でモデル作成もできます!」 先輩: 「ほう、流石だね」 新人: 😊 先輩: 「じゃ、君には今から 3 時間で機械学習 Web アプリを作ってもらうよ」 先輩: 「題材はそうだなぁ、写真に写ってる顔を絵文字で隠すアプリにしよう」 先輩: 「あ、デプロイは不要。ローカルで動けばいいからね。顔認識と画像処理でいけるよね?」 新人: 😐 新人: (えぇぇぇぇぇぇぇ。3 時間?厳しすぎる...) 新人: (まずモデルどうしよう。てかもら
import torch x = torch.tensor([1., -1.]) w = torch.tensor([1.0, 0.5], requires_grad=True) loss = -torch.dot(x, w).sigmoid().log() loss.backward() print(loss.item()) print(w.grad)
百聞は一見に如かず。これってAI生成グラビア?AI画像生成に興味を持ったのは去年の年末頃だろうか。Twitterを眺めていると「どうやって撮った(作った)んだ?」と言う画像がたまに載っていたので調べると、Stable Diffusion Web UI (AUTOMATIC1111版)だった。 元々グラビアを撮っていたこともあり、あまり撮らなくなってもグラビア好きなのには違いなく、試したくなったのは言うまでもない。 AI生成画像は大きく分けて2種類あり、一つはイラスト系、もう一つはリアル系。筆者が興味を持ったのは後者。どこまで実写に迫れるのかがその興味の対象だ。百聞は一見に如かず。扉の写真はAI生成画像。現時点でこの程度の写りは容易にこなす。 とは言え、実際の撮影もそうなのだが、グラビア写真は数百枚撮ってカメラマンがある程度セレクトし納品したものが、納品先で更に絞られ、出版社などで更に絞り込
Skip to the content. 機械学習の研究者を目指す人へ 機械学習の研究を行うためには、プログラミングや数学などの前提知識から、サーベイの方法や資料・論文の作成方法まで、幅広い知識が必要になります。本レポジトリは、学生や新社会人を対象に、機械学習の研究を行うにあたって必要になる知識や、それらを学ぶための書籍やWebサイトをまとめたものです。 目次 プログラミングの準備 Pythonを勉強しよう 分かりやすいコードを書けるようになろう 数学の準備 最適化数学を学ぼう 基本的なアルゴリズムとその実践 機械学習の全体像を学ぼう 基本的なアルゴリズムを学ぼう 深層学習の基礎を学ぼう scikit-learnやPyTorchのチュートリアルをやってみよう サーベイの方法 国際会議論文を読もう Google Scholarを活用しよう arXivをチェックしよう スライドの作り方 論文の
Google が公開している、より良いデータ分析のためのガイドブック「Good Data Analysis」で、データ分析の要所が簡潔にまとめられていて感動した 2022-03-08 Google の非公式ブログで、The Unofficial Google Data Science Blog というデータサイエンスをテーマにしたブログがある。 その中で、 Practical advice for analysis of large, complex data sets の記事を元にして作られた Google Developers Guides: Machine Learning Guides > Good Data Analysis を昨日見かけて読んでいたら素晴らしいドキュメントだったので、ここでその感動を共有したかったので筆をとったしだい。 Good Data Analysis の概
先日、博士(情報学)になりました。学部と大学院をあわせた 9 年間で読んだ情報科学関連の教科書・専門書を思い出を振り返りつつここにまとめます。私は授業はあまり聞かずに独学するタイプだったので、ここに挙げた書籍を通読すれば、大学に通わなくてもおおよそ情報学博士ほどの知識は身につくものと思われます。ただし、特に大学院で重要となる論文を読み書きすることについては本稿には含めておりません。それらについては論文読みの日課についてや論文の書き方などを参考にしてください。 joisino.hatenablog.com 凡例:(半端)とは、数章だけ読んだ場合か、最後まで読んだものの理解が浅く、今となっては薄ぼんやりとしか覚えていないことを指します。☆は特におすすめなことを表します。 学部一年 寺田 文行『線形代数 増訂版』 黒田 成俊『微分積分』 河野 敬雄『確率概論』 東京大学教養学部統計学教室『統計学
sabrinas.spaceより。 8週間もかからなかったはずのプロジェクト 日本のウェブデザインはどう違うのか? 2013年のRandomwireのブログ投稿で、著者(David)は、日本のデザインの興味深い相違点を強調しました。日本人はミニマリストのライフスタイルで海外に知られていますが、ウェブサイトは奇妙なほどマキシマリストです。ページには様々な明るい色(3色デザイン原則を破っている)、小さな画像、そして多くのテキストが使われています。2022年11月に撮影されたこれらのスクリーンショットで、自分の目で確かめて下さい。 ブログ投稿には、文化的専門家、デザイナー仲間、そして不満を抱く市民によって支持されている、考えられる理由がいくつか挙げられていました。 この理論が今でも正しいのか、また、もっと定量的なアプローチが可能なのか気になったのでやってみました。 私が見つけたもの 各国の最も人
【渡辺明名人】37歳。名人・棋王・王将の三冠を保持し、現将棋界の序列1位。近年はコンピュータ将棋(AI)を用いての綿密な研究でも知られる。ほとんどの棋士を相手に勝ち越し「現役最強」とも言われるが、棋聖戦五番勝負では藤井聡太棋聖に挑戦して敗れた。 (7月某日、LINEにて、渡辺名人が研究用の新しいマシンの購入を検討しているという話になり) 渡辺 将棋ソフト用のパソコンと最新のソフト事情について教えてもらいたいんですけど。 松本 それなら水匠開発者の杉村達也さんが適任です。ご紹介しますよ。 渡辺 ディープラーニング系のソフトってなに?ってところですよ、私は(笑) 松本 ますますちょうどいい。私もそのあたり、さっぱりわからないので(笑)。ところで新しいマシンを買うのだと、たとえば藤井聡太さんみたいなモデルはCPUだけで50万円らしいですね。 松本 ということは、トータルで予算80万円ぐらいですか
「AIって結局は統計だろ?」 ネットでこういった言葉を見かける度、正直モヤモヤしている。 確かに統計的な処理がAIの根幹にあるのは間違いない。 データを集め、確率を計算し、そこから最適解を選び出す。そういう構造があるのは事実だ。だから「まったく違う」と言い切るのも嘘になる。 だが、それを「AIって結局は統計だろ?」なんて一言で片づけるのは、あまりに横暴だ。 統計そのものを動かす理論や数理、そこに積み上げられたアルゴリズムの厚みを無視してしまっているからだ。 たとえば俺が本気で勉強したときにぶん殴られたのは統計の延長で片付けられないようなもっと複雑でもっと美しい構造だった。 だから、この言葉にモヤモヤするのは「半分は当たっているけど、半分は外している」から。 AIは統計でありながら、統計に還元できないものでもある。 その両義性を理解せずに「統計だろ?」で済ませるのは、ピアノの音を聴いて「ただ
こんにちは。一般クリエイターです。前回からlineart(AI着色)を利用したイラスト製作を色々と試していましたが、lineartを使用することでかなり細部に渡って生成物の形状を制御できることが分かってきました。3D背景と併用することで、統一性のある背景を様々なアングルから描写することができます。これによって「AIが生成する背景は描写毎に形が変わってしまうので、同一室内の複数カットを作成できない」という問題がある程度解決されてしまいました。されてしまいましたよ!ある程度! なので今回は3D背景モデルを使用して3カットほどシーンを生成させて何かアニメっぽいやつ作りたいと思います。作業手順はだいぶ複雑になりますので、「AIを活かしてなんか作品作りてえな~」と思ってる人向けの内容となっております。AI着色を使用したイラスト作成に関しては前回記事を参照してください。 まずは今回のアニメの舞台となる
はじめに ChatGPTをはじめとしたLLMを使いこなすための必須スキル、プロンプトエンジニアリング について解説します。 最近は動きが早すぎてキャッチアップが難しくなっていますが、特に以下のような手法が注目されているようです。 In-context Learning (ICL) Chain-of Thought (CoT) Zero-shot CoT ReAct Self-Consistency Program-aided Language Model (PAL) 今回は、6つのテクニックの中からPart1として、ICL、CoT、そしてZero-shot CoTの3つを紹介します。 これらのテクニックは、ChatGPTをはじめとするLLMのポテンシャルを最大限に引き出すために必要不可欠です。 さらに、各テクニックを詳しく解説した論文も紹介していますので、是非ご一読ください。 In-con
はじめに 私はこれまで機械学習のパラメータチューニングに関し、様々な書籍やサイトで学習を進めてきました。 しかしどれもテクニックの解説が主体のものが多く、 「なぜチューニングが必要なのか?」 という目的に関する記載が非常に少なかったため、体系的な理解に苦労しました。 この経験を後世に役立てられるよう、「初心者でも体系的に理解できる丁寧さ!」をモットーに記事にまとめたいと思います。 具体的には、 1. パラメータチューニングの目的 2. チューニングの手順とアルゴリズム一覧 3. Pythonでの実装手順 (SVMでの分類を例に) の手順で解説を進めます。 独自解釈も含まれるため、間違っている点等ございましたら指摘頂けると有難いです。 なお、文中のコードはこちらのGitHubにもアップロードしております。 2021/9/6追記:LightGBMのチューニング実行例追加 以下の記事に、Ligh
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 社内向けに公開している記事「統計・機械学習の理論を学ぶ手順」の一部を公開します。中学数学がわからない状態からスタートして理論に触れるにはどう進めばいいのかを簡潔に書きました。僕が一緒に仕事をしやすい人を作るためのものなので、異論は多くあると思いますがあくまでも一例ですし、社員に強制するものではありません。あと項目の順番は説明のため便宜上こうなっているだけで、必ずしも上から下へ進めというわけでもありません。 (追記)これもあるといいのではないかというお声のあった書籍をいくつか追加しました。 数学 残念ながら、統計モデルを正しく用いようと思
ChatGPTが思いがけずいろいろなことを人間より賢くやっているのを見てシンギュラリティという言葉を使う人が増えたように思いますが、逆に、シンギュラリティは来ないのではという思いを強くしています。 まず、この文章でのシンギュラリティがなにかという話ですが、レイ・カーツワイルが「シンギュラリティは近い」の1章の終わりで「さあ、これが特異点だ」といっている特異点、そのシンギュラリティです。 シンギュラリティは近い―人類が生命を超越するとき 作者:レイ・カーツワイルNHK出版Amazon この特異点は単にAIが人間より賢くなるというだけではありません。人間より賢くなるだけだと、便利な道具が増えるだけなので、大騒ぎするほどの変化は起きません。人の仕事を奪うといっても、蒸気機関ほどでもないですね。印刷機などと並んで、人の生活を変える転換点にすぎず、ただひとつの点をあらわすシンギュラリティには なりま
米AppleのAI研究者らは10月7日(現地時間)、「GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models」(LLMにおける数学的推論の限界を理解する)という論文を発表した。 この論文は、LLM(大規模言語モデル)が、本当に人間のように論理的に考えて問題を解けるのか、という疑問を検証している。結論としては、LLMは今のところ、表面的なパターンを真似て答えを出しているだけで、真の推論能力は持っていないと主張している。 研究者らは、これらの問題点を検証するために、「GSM-Symbolic」という新しいテスト方法を開発した。これは、LLMの数学的推論能力を評価するためのベンチマークデータセット「GSM8K」を改良し、問題の表現や数字を柔軟に変えられるようにした
ライセンスは「CC BY-NC-ND 4.0」で、利用の際にクレジットを表示すること、非営利でのみ利用すること、内容を改変しないことを求めている。 バンダイナムコは、メタバースやXR技術が広まる中、コンテンツ規模が拡大すると従来のモーション制作過程では限界を迎えると予想。AIを活用したキャラクターのモーションを生成する研究を行っている。 一方、AIによるモーション研究はデータセットの入手が難しいため研究開発が進んでいないとして、自社で使っているデータの一部を提供することにしたという。 関連記事 実在しない顔の画像3000点を無償配布、AI学習用データセットに 法人向け・商用利用可 AI活用のコンサルティング事業を手掛けるAPTOなど2社が、AIの学習データとして利用できる、実在しない男女の顔写真3000枚の無償配布を始めた。法人を対象に11月30日までの期間限定で提供し、商用利用も認める。
(数式を使わない) Transformer の直感的な説明 RNN の欠点 Transformer はこれをどう解決したか Transformer の動作原理 複数の要素間の関係を考慮する (Self-Attention、自己注意) 要素の順序を考慮する (Positional Encoding、位置エンコーディング) まとめ 概要: ChatGPT などで使われている Transformer モデルは、 ニューラルネットワークの世界にいくつかの革新的なアイデアをもたらした。 本記事では、プログラマに理解しやすい形でそれらのアイデアを解説する。 実際に使われている数学の詳細には触れない。 (技術的解説については元論文 Attention is All You Need か、 その注釈版である The Annotated Transformer を参照のこと。 日本語では この解説 がわかり
巷で話題のStable Diffusion(以下SD)をファインチューニングする方法が公開されたので、早速やります。
「Plask」は、韓国・ソウルに拠点を置く同名のソフトウェア会社が開発。現実の動きをAIが自動で取り込み、単純な操作でモーションデータを作成できることからアニメーターやゲーム開発者らを中心とした界隈で大きな注目を浴びている。 編集画面では、各ターゲットの配置やキーフレームの調整といった機能を搭載。今後は複数人での共同編集も実装する予定とのこと。データの出力は汎用フォーマットのGLB、FBX、BVH形式などに対応し、BlenderやMayaといった3DCGソフトでも扱うことができる。 (画像はYouTube「Meet Plask – Plask – AI Motion Capture and 3D Animation Tool」より)(画像はYouTube「Meet Plask – Plask – AI Motion Capture and 3D Animation Tool」より)(画像は
「Midjourney」「Stable Diffusion」など、テキスト(呪文)を入力するだけで、イメージに合った美しい絵を出力してくれるお絵かきAIが、にわかに盛り上がっている。 描き込まれた絵画調の作品や、アニメ風のイラストなどに注目が行きがちだが、他にもさまざまな可能性が広がっている。例えば、子供用の塗り絵を無限に生成する、などだ。 「Midjourney」や、その派生版「niji・journey」で、さまざまな作品を作っているブロガーのkobeniさんは、これらを使って線画の"塗り絵”をたくさん作り、記者の娘(4歳)にプレゼントしてくれた。 娘は、プリンセスの塗り絵に「かわいい」と大興奮。色鉛筆を手にとり、夢中で塗っていった。 kobeniさんによると、塗り絵を作るための"呪文”は、「線画」「色なし」「子供用の塗り絵」「白背景」「白地に黒のはっきりとした線」「細かい書き込み」 「
ゴースト・ワーク 作者:メアリー・L・グレイ,シッダールタ・スリ晶文社Amazon『ゴースト・ワーク』とまるでホラー小説のような書名だが、ノンフィクションである。「ゴースト・ワーク」とは本書の造語で、人工知能やウェブサイトの動作を支えている、見えづらい(あるいは、意図的に隠されている)裏側の人間の労働のことを指している。わかりやすい例でいえば、人工知能のモデルに学習をさせるために、猫の画像に猫のラベルを貼りつける、あるいはフェイスブックやインスタグラムやツイッターのようなSNSで、暴力的なコンテンツとAIが自動で判定したコンテンツが、本当にまずいものなのか、誤判定されたものなのかをチェックする仕事である。 GPT-3〜4の登場もあってAIの発展著しい昨今、AIは多くの人間の仕事が奪われると恐怖と共に語られることが多いが、まだまだ完全に人間の仕事を置き換えることは難しい。それは逆にいえば、「
www.kamishima.net ペドロ・ドミンゴスの『The Master Algorithm』は、ビル・ゲイツが AI 分野の必読書に挙げていたので注目し、ワタシも何度か文章の中で引き合いに出している。 ユートピアのキモさと人工知能がもたらす不気味の谷 - WirelessWire News(ワイヤレスワイヤーニュース) 我々は信頼に足るアルゴリズムを見極められるのか? - WirelessWire News(ワイヤレスワイヤーニュース) そして、邦訳の刊行が期待される洋書を紹介しまくることにする(2017年版)でも取り上げているが、この原著が刊行されたのは2015年である。それから5年以上経ち、もうこれは邦訳の話は流れてしまったかと半ば諦めていたところ、『マスターアルゴリズム 世界を再構築する「究極の機械学習」』の邦題で刊行される。ワオ! マスターアルゴリズム 世界を再構築する「究
ちょっと前に以下のようなことを放言したら、思いの外反響が多くてちょっとびっくりしたのでした。それだけ、現代のLLM chatbot / generative AIの台頭に期待と不安を抱いている人が多いということの裏返しなのでしょう。 既に色々コメントが出ているけど、我々人類が「知的労働」だと思っていることの大半が実は「過去実績をなぞって適当にその場に合わせて組み立てているだけ」なんじゃないかと訝っているので、そういう「自称知的労働」は多分LLMで代替されると思う。新奇なものを生み出す仕事は相変わらず残る https://t.co/GGK41vSDcn— TJO (@TJO_datasci) 2023年3月15日 昨年の年末振り返り記事でも話題にしたChatGPT(そして後続の各種LLM chatbot)ですが、今年に入ってからの話題の広がり方には想像を超えるものがあり、ついに朝の情報番組な
SmokingWOLF@ゲーム開発者/片道勇者2開発中 @WO_LF 「AI学習禁止」がトレンドに入っててすごい時代の風を感じる (※「自分のイラストを学習データに使わないで」という話題。個人のイラスト複数枚を入力することで画風をまねた顔イラスト画像を生成できるサービスが今日リリースされた影響) SF小説もびっくりのとんでもない世の中になってきた。 2022-08-29 22:21:26 おねねちゃん @OneneChan ぐああああッッッ!!!悪用対策ッッッ!!!!!!!転載禁止ッッッ!!!自作発言✕ッッッ!!!トレパク✕ッッッ!!!! …………AI学習禁止ッッッ!!??!?(𝗻𝗲𝘄) ギャァァァァァァァァァァァァめんどくせえ""""ぇぇえええッヅッ!!!!!!!!!!!!!!!!!!""""" pic.twitter.com/82NGOLoRTD 2022-08-29 18:5
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く