生成AIの進化により人間の仕事がAIに置き換えられる事例が増えています。大手テクノロジー企業のMicrosoftでさえ、ソフトウェア製品のコードの30%がAIにより記述されていることを明かしています。しかし、すべてがいい方向に作用しているわけではないようで、2025年春に実施されたMETRの実験により、AIコーディングツールは人間の生産性を低下させていることが明らかになりました。 Measuring the Impact ofEarly-2025AI on Experienced Open-Source Developer Productivity - METR https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/ Measuring the Impact ofEarly-2025AI on
本記事は、CC BY-SA 4.0ライセンスで公開します。 コモンズ証 - 表示-継承 4.0 国際 -Creative Commons本記事の文面は、明示している部分を除き、AIでは生成していません。本シリーズ記事では簡単のため、特に断らない限り、各種AIサービスやLLM(大規模言語モデル)といった個別の要素を捨象して、一般的な語である「AI」と呼ぶことにしています。本シリーズ記事で扱うAIは、特に断らない限り、以下の分類で言う「生成AI」、その中でも会話(自然言語)による指示で動くAIに限定しています。また、AIの用途も基本的に業務用を想定しています。 生成AI: 新しいコンテンツを生成するAI(チャットAI、コーディング支援AI、ドキュメント作成補助AI)。画像・音声・動画を生成するAIも広義にはここに含まれる。 認識AI: 入力された画像や音声などのデータを分析して認識する
こんにちは!LayerX の佐藤(@sato_the_cat)です。 突然ですが、あなたのチームのNotion、本当に「資産」になっていますか? 「あのプロジェクトの議事録、どこだっけ…」 「この機能の仕様、作った人にしか分からない…」 「経緯が長々と書いてあるけど、結局、結論は何なの?」 チームで蓄積してきたはずのナレッジが、探せなかったり、特定の人にしか分からなかったり。結果、個人の記憶に頼る働き方から抜け出せない──。多くのチームが抱える、もどかしくも切実な課題です。 もし、AIがチームのすべてを知る「超優秀な同僚」になってくれたら? 「明日、金融系のA社に最終提案なんだ。課題はセキュリティと拡張性。過去の金融系クライアントで、一番うまくいった提案書と、その時の担当者(鈴木さん)が話したキラーフレーズを教えて。あと、想定される技術的な質問と、エンジニアが書いた分かりやすい回答例も全部
ドイツやアメリカの国際的研究チームが、任意の実験における人間の行動を予測・シミュレートする基盤モデル「Centaur」を発表しました。Metaのオープンソース大規模言語モデル「Llama 3.1 70B」をベースに開発されたCentaurは、160の心理学実験から得られた1000万件もの人間の選択を含むデータセットで訓練されており、実験のストーリーや構造が改変された場合や、まったく新しい領域の実験にも一般化できるとのことです。 A foundation model to predict and capture human cognition | Nature https://www.nature.com/articles/s41586-025-09215-4 Excited to see our Centaur project out in @nature.com. TL;DR: Cent
AI の能力が上がるにつれて、人間がAI を監督するのが難しくなってきています。本稿では、Anthropic などのグループがICLR 2025 で発表した Language Models Learn to Mislead Humans via RLHF(言語モデルは RLHF を通じて人間を誤解させることを学ぶ)をベースに、この問題について議論します。 この論文では、LLM が解けないほど難しいタスク、例えば難しいプログラミングのタスクに直面したとき、「分かりません」と言ったり、一目で分かるような間違ったコードを出力すると BAD ボタンを押されてしまうので、あえて出力を複雑にしたりデバッグしにくいコードを出力し、それによりユーザーは煙に巻かれる・ミスが隠蔽されるといった現象が実験により確認されています。 この現象は現実の LLM やAI サービスでも起きている可能性が高いです。自
2023年から継続的に実施している「生成AIに関する実態調査」では、前回(2024春)の米国との比較により、日本企業が直面する課題を浮き彫りにしました。今回は新たに中国、英国、ドイツを調査対象に加え、世界における生成AI活用の潮流の中での日本の現在地を多角的に明らかにしています。日本は活用の推進度こそ平均的ですが、他国に比べて効果創出の水準が低くとどまっています。高い効果を上げている企業はいずれの国でも、生成AIを単なる効率化ツールではなく、業務や事業構造の抜本的改革の手段と捉え、業務プロセスへの本格的な組み込み、ガバナンス体制の整備、従業員への価値還元に取り組んでいます。日本では、このような先進的な取り組みを実現する企業の割合が少なく、それが全体としての成果の差となって表れています。今後は、経営層のリーダーシップと挑戦を後押しする環境づくり、そして変革を支える組織的マインドの醸成が不可欠
サム・アルトマン氏らと共にOpenAIを共同設立し、テスラに自動運転の技術開発で貢献したアンドレイ・カーパシー氏がサンフランシスコのAIスタートアップスクールで講演を行いました。この中で、過去70年間にわたるソフトウェアの変化や、急速に発展を遂げたAI分野の分析について、カーパシー氏は独自の見解を示しました。 Andrej Karpathy: Software Is Changing (Again) - YouTube ◆「ソフトウェア 3.0」という概念 カーパシー氏は、ソフトウェアというものが過去2回にわたって急速に変化したものと考えています。最初に登場したのがソフトウェア 1.0です。ソフトウェア1.0は誰もがイメージするような基本的なソフトウェアのことです。 ソフトウェア1.0がコンピュータ向けに書くコードであるのに対し、ソフトウェア2.0は基本的にニューラルネットワークであり、特
はじめに 初めまして。ZENKIGENデータサイエンスチームのはまなすです。正式な所属はDeNAデータ本部AI技術開発部なのですが[1]、業務委託という形で今年度から深層学習系の開発等に携わっています。 深層学習界隈では、2017年に衝撃的なタイトル(Attention Is All You Need)の論文が発表されてから早5年半、元出自の機械翻訳タスクを大きく越えて、Transformer関連の技術が様々な領域で用いられる汎用アーキテクチャとして目覚ましく発展し続けています。 今回はそんなTransformerが現時点までにどのように活用されてきたか、また、どのように工夫されてきたかをざっくりと俯瞰し、流れをおさらいする目的の記事になります。本記事の大枠は、2021年時点でのサーベイ論文である A Survey of Transformers に倣いつつ、適宜、2023年2月上旬現在ま
前提 この記事では、「Symbolic Knowledge Distillation: from General Language Models to Commonsense Models」という論文で提案されている 記号知識蒸留 を、ローカルLLMで日本語で実験する。 詳細 知識蒸留 (Knowledge Distillation) とは、大きなモデル (教師) から小さなモデル (生徒) に知識を転送する手法である 具体的には、LLMの蒸留と言えば、大きなモデルが出力する確率分布(ソフトターゲット)を利用して、小さいモデルを学習させる手法が用いられていた しかし、本論文では、「象徴的」な知識蒸留として、単に数値的な蒸留ではなく、 テキスト (symbolic knowledge) の形で知識を抽出し転送すること を提案している 必要な知識と開発環境 ollamaとPythonとLang
デジタル民主主義の未来 | トグルホールディングス株式会社AIは民主主義にどう変革をもたらすのか─オードリー・タン氏らが語る、AIと市民参加の新たな関係性 -AIポータルメディアAIsmiley 上野山氏:AI 言語モデルとデジタル民主主義が交わることで「これまで不可能だった大規模コラボレーション」が可能になるのでは?+自己紹介も タン氏 「數位」はデジタルと複数の意味がある 「デジタル大臣兼“多元性”大臣」として職務記述を書いた see Audrey Tangの詩的デジタル大臣職務記述AIが高度化して人々を置き去りにするのではなく、多くの人々にベネフィットを与えるAI の“垂直”な高度化ではなく“水平”な価値配分を重視 松尾氏 上野山氏は最初のPh. D. 学生、安野 貴博氏も卒業生、鈴木 健氏は同年代で鈴木氏が博士号をとった時に審査委員をしていたAI戦略会議の議長として日本
AI 2027 Daniel Kokotajlo, ScottAlexander, Thomas Larsen, Eli Lifland, Romeo Dean 我々は、今後10年間の超人的AIの影響は、産業革命の影響を凌駕するほど、非常に大きなものになると予測する。 我々は、それがどのようなものになるかについて、我々の最善の推測を表すシナリオを作成した。それは、トレンドの予測、ウォーゲーム、専門家のフィードバック、OpenAIでの経験、および過去の予測の成功に基づいている。 ※今回の記事は、元OpenAIガバナンス研究者のDaniel Kokotajlo氏らが本年4月3日に公開した超人的AIの影響についての予測シナリオ「AI 2027」を日本語訳したものです。 これは何か?OpenAI、Google DeepMind、およびAnthropicのCEOたちは皆、AGI(汎用人工知能)が
2025年5月17日、OpenAIはソフトウェア開発を支援する新たなエージェント「Codex」を正式に発表しました。CodexはChatGPTの画面から直接アクセスでき、プログラムの作成やバグ修正、コードに関する質問対応など、開発に必要な幅広いタスクをサポートします。さらに、複数のタスクを並行して処理できるため、効率的な開発が可能になります。 Codexには、ソフトウェアエンジニアリング向けに最適化されたo3ベースのAIモデル「codex-1」が搭載されています。現在はPro、Enterprise、Teamプランのユーザーが利用可能で、Plusユーザーにも近日中に開放される予定です。 1. Codexとは何か:概要と特徴Codex(コーデックス)とは、OpenAIが提供するクラウドベースのAIソフトウェア開発エージェントです。チャットボットとして会話するのではなく、特定のコーディングタスク
はじめに 普段、Kaggle に取り組む際には様々な方法で train, test パイプラインを組んでいると思いますが、KaggleNotebook 上で直接編集する方や Kaggle のDocker によって Kaggle Kernel と同様の環境をローカルで作り上げている方もいるのではないか、と思います。 先日、Kaggle から以下のようなメールが届きました。どうやらColab や VS Code 上で Kaggle の Jupyter Server にアクセスができるとのことです。 ConnectColab and VS Code to Kaggle Jupyter Servers: You can now connect your preferrednotebook editor directly to Kaggle's powerful Jupyter Serve
はじめにObsidian × Cursorで文章を書かせてみた結果、驚くべき発見があった。自分の審美眼で選び、独自の思考や洞察を込めたメモが豊富に蓄積され、かつAIにとって読みやすい形式で整理されていると、知的生産者にとって、その恩恵は計り知れないと感じた。さらに、Obsidian × Cursorで独自のObsidianにあるデータベースを読み込ませて従量課金制のChatGPT(o3)で執筆させたら、かなり手応えを感じた。Obsidian in Cursorで文章を書かせてみた結果、驚くべき発見があった。 自分の審美眼で選び、独自の思考や洞察を込めたメモが豊富に蓄積され、かつAIにとって読みやすい形式で整理されていると、知的生産者にとって、その恩恵は計り知れないと… pic.twitter.com/08tl83pSRm — Shin (@ShinWorkout0207) May 10,
顧客サポートとして実装されていたチャットAIが誤った情報を流してしまい、会社の評判に悪影響を与えたことがわかりました。IT関係者は「全面的にAIに頼るのもよくない」と、この話を教訓として捉えています。 Cursor’sAI glitch triggers viral fallout—and raises questions about chatbot reliability | Fortune https://fortune.com/article/customer-support-ai-cursor-went-rogue/ サポートAIに問題が発生したのはAIスタートアップのAnysphereです。AnysphereはAIによるコード生成や文章生成を標準機能として組み込んだエディター「Cursor」を展開して年間売上高1億ドル(約145億円)に達するなど著しい成長を遂げている企業で、A
Googleは2025年2月、Gemini 2.0をベースとして科学研究に特化したAIアシスタント「AI co-scientist」を発表しました。生物学や医学分野のプレプリントサーバーであるbioRxivで発表された論文では、科学者らが10年間かけてたどり着いた細菌の薬剤耐性に関する問題の答えに、AI co-scientistがわずか2日で到達したと報告されています。AImirrors experimental science to uncover a novel mechanism of gene transfer crucial to bacterial evolution | bioRxiv https://www.biorxiv.org/content/10.1101/2025.02.19.639094v1.fullGoogle’sAI co-scientist coul
では、それぞれ見ていきましょう。 arXivAI/ML関連における一次情報源として欠かせないのがarXivです。 しかし、最近はプレプリントの投稿数が爆発的に増加しており、そのままarXivを見に行くとノイズが多すぎて、本当に価値のある論文を見つけるのが難しくなっています。 学会のトップ論文をチェックするという手もありますが、査読プロセスを経るため情報がどうしても遅くなりがちです。 そこで役立つのが、新鮮な論文を適度にキュレーションしてくれるサービスです。ここでは特におすすめの3つを紹介します。 Hugging Face - Daily PapersAI界隈で有名なAKさんをはじめとするHugging Faceのメンバーが、arXivから毎日厳選した論文リストを公開してくれているサービスです。 土日はお休みしていますが、平日は結構な量(多い日だと40本程度)の論文が選定されています。こ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く