Movatterモバイル変換


[0]ホーム

URL:


きしだのHatena

2025-12-01から1ヶ月間の記事一覧

NVIDIAから新しいモデル、Nemotron 3 Nanoが出ていました。30BのMoEでアクティブパラメータは3B。つまり30B-A3Bです。 試してみたら、かなり賢いんだけど、コーディングの長いやりとりをしてたら過去のコードをうろ覚えになってて変な挙動をしてました。 ど…

はてなブックマーク - NVIDIAのLLM、Nemotron 3 Nanoは賢いけどコーディングには向かないかも。Mamba 2の特性が悪く出てる?

LLMにやさしいSui言語が話題だった。 で、「ヤサシクナイヨ」とか書いてたのだけど、それならSui言語にやさしいLLMを作ってみるのはどうか。 LLMにやさしい言語SuiはLLMにやさしくなさそう - きしだのHatena まあ、ファインチューンという金槌を持ってウロウ…

はてなブックマーク - LLMにやさしいSui言語にやさしいLLMを作る

GLM 4.6Vが出てるのでMLXの4bit版を試してみました。 106BのMoEでアクティブパラメータは12B。画像や動画に対応しています。画像エンコーダーもあるので全体では108B。 ライセンスはMIT。 zai-org/GLM-4.6V · Hugging Face GLM-4.6V: Open Source Multimodal…

はてなブックマーク - Z.aiの新しい画像言語モデルGLM 4.6Vよさそう

LLMにやさしい言語という謳い文句の言語、Suiが話題。 けどこれ、LLMにあまりやさしくなんじゃなかろうか。 https://github.com/TakatoHonda/sui-lang 9月にこういうエントリを書いてます。 AI専用のプログラミング言語は現れない - きしだのHatena ここで理…

はてなブックマーク - LLMにやさしい言語SuiはLLMにやさしくなさそう

昨日、Mistral 3シリーズがリリースされました。モデルは675BのMistral 3 Largeと、3B、8B、14Bという手ごろなサイズのMinistral 3です。このMinistral 3でコーディングや画像認識、3Bモデルのファインチューニングを試してみました。 そこそこ使えて画像認…

はてなブックマーク - Ministral 3は性能はもう一歩だけど存在が大切。文字読み取り性能は高い
検索

引用をストックしました

引用するにはまずログインしてください

引用をストックできませんでした。再度お試しください

限定公開記事のため引用できません。

読者です読者をやめる読者になる読者になる

[8]ページ先頭

©2009-2025 Movatter.jp