
はてなキーワード:オンボードとは
何台かやってるけど今だとDellWyse5070ってのが多めに中古に流れてきてておすすめやな。celeronJ4105(たしか8か9世代)が入っててgeekbench928(pi4が650くらい)、メモリがオンボードじゃなくて2枚挿せるのでかなり盛れる。
DPが3発、USBが7発、無線LANありだから元増田の希望は十分満たせるかな。あとはストレージはm.2で地味にうれしいシリアルポートもある。
これで3千円台だった、と思う。いまはちょっと値段上がってるかも。前世代のwyseだともっと安いっぽいな。
これに負担の少なめの機能をまとめてて常時つけてるけどアイドル状態だと3Wくらい。ただし無線は切ってる。
富士通のfutroはhttps://pc.watch.impress.co.jp/docs/column/kaimono/1464643.htmlが詳しい
2025年の春に、2008年当時の外装箱に入ったAcerAspire One ZG5が届いた。状態は非常によい。電源を入れるとWindows XPが起動した。
CPU:Atom N270 (single core 1.6Ghz)
RAM: 1GB
ディスプレイ: 8.9インチ, 1024x600TFTLCD
このPCは32bitOSしか動かない。antiXbase 32bitにする。
軽量であること、Debianベースであること、そこそこ活発に開発が続いていることがこのディストリビューション選択の理由だ。
AntiXは軽量化が徹底されていて、そのままインストールするとメモリ消費量は200-250MBくらいなので、メモリが1GBしかないPCでも普通に軽作業ができるはずだ。デスクトップ環境をさらに軽量化し、基本的にはCLIベースで運用することも検討したい。
antiXのライブ環境をUSBブートすると、あっけないほど簡単に起動した。本体キーボードは小さいながらも造りがしっかりしており、現代の格安Bluetoothキーボードよりは打ちやすい。
Wifiにも普通につながったので、ブラウザを起動してはてなブックマークのトップページを読み込む。表示されるまでに5秒くらいかかるので、ブラウジングには実用的でないレベルだ。ディスプレイの横幅が1024pxしかないので、ページ全体が表示されず、横にスクロールする必要がある。解像度が低いせいで文字は大きく、老人の目にはやさしい。
1000円くらいの予算で少しは快適に使えるようになるアップグレードをしようと思う。
BIOSの画面を表示し、ハードディスクのモデル名を調べると、インターフェイスはSATAであることがわかった。そのに出回っているSSDを挿せば認識されるはずなので、ストレージ換装の難易度が想定よりずっと下がった。部屋にしまい込んであった120GBのSSDに換装してみる。読み込みスピードは1.5GB/sに制限されるが、HDDよりは体感速度が速くなるはずだ。
AcerAspire One ZG5に積める最大のメモリは1.5GBだ。オンボードで512MBのメモリがはんだづけされており、他にスロットが1つある。この機種のマザーボードは2GBまでしかメモリを認識できないらしいので、挿せるメモリが1GBまでになるという計算だ。1GBのメモリを100-350円くらいで調達予定。
このPCにはBluetoothがない。AliExpressでUSB接続のBluetooth送受信機を買って挿そうと思う。500-600円位で調達予定。
AcerAspire One ZG5は当時としては小型のモデルであったせいか、分解が難しい。キーボードを取り外してマザーボードを取り出し、ひっくり返すとようやくストレージやRAMのスロットが出てくる。その間に取り外すネジやコネクタが多いので、なくしたり破損したりしないように気をつけないといけない。
ネットで検索するとAcerAspire One ZG5の分解動画やブログが大量に出てくる。安くて大量に普及したモデルだけに、先人の知恵の蓄積が多いらしい。これらを手がかりに注意深く分解すればなんとかなりそうだ。あとはそんな作業をするだけの時間を見つけられるかどうか。
かといって不可であったとも言えない。
ただそれは最下位付近を走ることやクラッシュするような悪い結果を招かなかっという意味では不可ではなかった、というだけだ。
今回のようなレースを繰り返す、学びのための猶予はそれほど与えてもらえないだろう。
今年は最終戦まで角田でいくと明言されているが、そんな約束に何の意味がないことは周知の事実だ。
レッドブルにはアジャというスピードのある有望な新人がもうひとりいる。
次週のバーレーンでも今回のようなレースをするようであれば早くも交代の話が漏れ出すだろう。
角田はオンボードカメラの映像から他のドライバーの技術を学ぶ技能に長けていると聞く。
同じマシンをどのようにフェルスタッペンは鈴鹿で走らせていたのか?
Sランク:Proliant DL20 Gen9
Aランク:PowerEdge R320、PowerEdge R210 II
■Sランク:Proliant DL20 Gen9
小さい、安い、ウェブブラウザからBIOS画面の操作ができる。
PCIE接続のRAIDカードがついていない場合はオンボードのRAIDコントローラーで動作し、その場合、RedHat系のOSのインストールがちょっと大変。
最新のOSであるAlmaLinux9、Ubuntu24などもインストールできる。
安い。
自分が買ったときはヤフオクで3000円だった。外付けHDDケース買うより安い。
仮想基盤用のラックサーバーが欲しいとき、4コア8スレッドでは心もとないが、このマシンなら8コア16スレッドできる。
R320に適合する8コア16スレッドCPUは1500円で買えてしまう。
ウェブブラウザからBIOS画面を操作する機能もあった気がする。(うろ覚え)
小さい、安い。
Sandy Bridge世代のCPUを使うので余り物でよい。
自宅サーバーとして使うには厳しい。
体積こそR320と同じだが、CPUを二つ載せられたりちょっと豪華。
でも要らない。値段も高い。
これを買うなら小さいのを二つ買ったほうがいい。
■Cランク:FUJITSUPRIMERGY TX1320M2
何万円もするライセンス料を払わないとウェブブラウザからBIOS画面を操作する機能を使えない。
OSのインストールは頑張る必要が時々ある。Proxmoxはインストールできなかった。
開閉がとても面倒。官公庁が大量に買ってくれるから、といい加減な気持ちで作っているのではないかと疑ってしまう。
グラボを載せられるのが利点。
■番外編
・Jamper EZbookX3 CeleronN3450
サーバーとして使っていたところバッテリーが膨張して変形した。
今は内蔵バッテリーを外して使っているが悪くない。
とても小さく、超低消費電力だ。
スリムタイプPCなのに3.5インチHDDが2つつけられる。グラボも付けられる。
2位じゃだめなのか発言を批判している人達は未だに現実を直視できないでいるが、結論から言えば、それは1位でもだめだった。
今はAIが話題になっているが、その前段階のディープラーニングや、イーサのマイニングの時点でCPUは既に「オンボード」だった。
決められた箱の中で金だけ遣って1位を取っても意味がない。箱を突き破ってでも新しい世界を創造しようという気概がなければ、人を惹きつけることはできない。
先輩方は、自分達が若い頃は体罰に耐えた、パワハラに耐えた、これだけ我慢したのに報われないのは理不尽だ、最近の若者は甘やかされているとのたまうが、
それだけ頑張ったのに報われなかったのなら、やはりそれは何かが間違っていたんだと思う。例えば暴力を振るわれたのなら、なぜ殴り返さなかったんだ?
弱いからか?怖いからか?戦うことから逃げて敗者になったのに、なぜそれが努力したことになるんだ?なぜそれが報われると信じる?
日本人は未だゆりかごの中にいる。日本政府がその価値を保障してくれるという日本円は価値が下がり続けているが、政府の保障も何もないビットコインは上がり続けている。
国民年金があれば老後もなんとかなるだろうと皆が思っているが、支給開始年齢も金額も変幻自在のこの制度は、絶対に破綻しないことにより相当タチが悪くなっている。
国民皆保険は日本が世界に誇る素晴らしい制度だと皆は言うが、税負担は重くなる一方だ。
思い出してほしいが、日本は民主主義の国だ。すべての物事が民主的に決定されるのなら、優秀な政治家なんてものは必要がないはずだ。
もしそんなのが存在するのなら、それは独裁者であり、専制君主であり、絶対的権力者ということになる。
この国のかたちは、ほとんどの国民にとって理想的なものだ。夏休みの宿題は最終日にやればいい。そう思っているから世の中にしっかりと反映されている。
政治家が悪いとか、作戦が悪いとか、色々な言い訳が思い付くだろうが、結局は実力が一番大事だ。怠けた事への報いは、身を以って知るといい。
これはおそらく3つの中で最も簡単な方法だ。現在のChatGPTは、基本的に、テキストを入力できる孤立した箱の中に座っている人間のようなものだ。初期のアンホブリング改良では、個々の孤立したツールの使い方をモデルに教えていましたが、マルチモーダルモデルでは、近いうちにこれを一挙にできるようになると期待しています。
つまり、Zoomでの通話に参加したり、オンラインで調べ物をしたり、メッセージや電子メールを送ったり、共有されたドキュメントを読んだり、アプリや開発ツールを使ったりといったことだ。(もちろん、より長いホライゾン・ループでモデルがこれを最大限に活用するためには、テスト時間のコンピューティングをアンロックする必要がある。)
最終的には、ドロップイン・リモートワーカーのようなものができると期待している。エージェントは、あなたの会社に入社し、新しい人間の雇用のようにオンボードされ、Slackであなたや同僚にメッセージを送り、あなたのソフトウェアを使用し、プルリクエストを行い、大きなプロジェクトがあれば、人間が独立してプロジェクトを完了するために数週間留守にするのと同等のことができる。これを実現するためには、GPT-4よりもいくらか優れたベースモデルが必要だろうが、おそらくそれほどでもないだろう。
https://situational-awareness.ai/wp-content/uploads/2024/06/devin.gif
Devinは、完全に自動化されたソフトウェア・エンジニアを作るために、モデル上の「エージェンシー・オーバーハング」/「テストタイム・コンピューティング・オーバハング」を解除する初期のプロトタイプだ。Devinが実際にどの程度機能するかはわからないし、このデモは、適切なチャットボット→エージェントのアンホブリングがもたらすものに比べれば、まだ非常に限定的なものだが、近々登場するもののティーザーとしては役に立つだろう。
ところで、私は、アンホブリングの中心性が、商業的応用という点で、少々興味深い「ソニックブーム」効果につながると期待している。現在とドロップイン・リモートワーカーの中間モデルは、ワークフローを変更し、統合して経済的価値を引き出すためのインフラを構築するために、膨大な手間を必要とする。ドロップイン・リモートワーカーは、統合が劇的に簡単になる。つまり、リモートでできるすべての仕事を自動化するために、ドロップインするだけでいいのだ。つまり、ドロップイン・リモートワーカーが多くの仕事を自動化できるようになる頃には、中間モデルはまだ完全に活用され統合されていないため、生み出される経済価値のジャンプはやや不連続になる可能性がある。
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_gpt2togpt4.png
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_2023to2027.png
数字をまとめると、GPT-4に続く4年間で、2027年末までにGPT-2からGPT-4規模のジャンプが再び起こると(おおよそ)予想される。
GPT-4のトレーニングに3ヶ月かかったとしよう。2027年には、一流のAIラボはGPT-4レベルのモデルを1分で訓練できるようになるだろう。OOMの効果的なコンピュート・スケールアップは劇的なものになるだろう。
それは我々をどこへ連れて行くのだろうか?
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_counting_the_ooms.png
GPT-2からGPT-4までで、私たちは~未就学児から~賢い高校生になった。とんでもないジャンプだ。もしこれが、私たちが今一度カバーする知能の差だとしたら、それは私たちをどこに連れて行くのだろうか?私たちは、それが私たちをとてもとても遠くに連れていっても驚かないはずだ。おそらく、ある分野の博士や最高の専門家を凌駕するようなモデルまで到達するだろう。
(このことを考える1つの良い方法は、現在のAIの進歩の傾向は、子供の成長のおよそ3倍のペースで進んでいるということだ。あなたの3倍速の子どもは高校を卒業したばかりだが、いつの間にかあなたの仕事を奪っていくだろう!)
続き I.GPT-4からAGIへ:OOMを数える(10)https://anond.hatelabo.jp/20240605211837
今後数年間の野心的なアンホブリングはどのようなものになるのでしょうか?私が考えるに、3つの重要な要素がある:
GPT-4は、多くの人の仕事の大部分をこなせるだけの生の賢さを持っているが、それは5分前に現れたばかりの賢い新入社員のようなものだ:関連するコンテキストを持っておらず、会社のドキュメントやSlackの履歴を読んだり、チームのメンバーと会話したり、会社内部のコードベースを理解するのに時間を費やしたりしていない。賢い新入社員は、着任して5分後にはそれほど役に立たないが、1ヶ月後にはかなり役に立つ!例えば、非常に長いコンテクストを通じて、新しい人間の同僚を雇うようにモデルを「オンボード」することは可能なはずだ。これだけでも、大きなアンロックになるだろう。
2.テスト時間の計算オーバーハング(より長いホライズンの問題に対する推論/エラー訂正/システムII)
今のところ、モデルは基本的に短いタスクしかこなせない。しかし、これでは非常に限界がある。5分どころか、数時間、数日、数週間、数ヶ月かかるのだ。
難しい問題について5分間しか考えることができない科学者は、科学的なブレークスルーを起こすことはできない。ソフトウェア・エンジニアは、より大きな仕事を与えられ、計画を立て、コードベースや技術ツールの関連部分を理解し、さまざまなモジュールを書いて段階的にテストし、エラーをデバッグし、可能性のある解決策を検索し、最終的には数週間の仕事の集大成である大規模なプル・リクエストを提出する。などなど。
要するに、テスト時間の計算オーバーハングが大きいのだ。GPT-4の各トークンは、問題を考えるときの内部モノローグの言葉だと考えてください。各GPT-4トークンは非常に賢いのですが、現在のところ、思考の連鎖のために~数百トークンのオーダーしか効果的に使うことができません(あたかも問題やプロジェクトに数分しか内部独白/思考を費やせないかのように)。
もし数百万トークンを使って、本当に難しい問題や大きなプロジェクトについて考え、取り組むことができるとしたらどうだろう?
| トークンの数 | 私が何かに取り組むのに相当する時間... | |
| 100s | 数分 | ChatGPT (私たちはここにいる) |
| 1000s | 30分 | +1OOMsテスト時間計算 |
| 10,000 回 | 半日 | +2OOMs |
| 100,000ドル | 1週間 | +3OOMs |
| 数百万回 | 複数月 | +4OOMs |
人間が〜100トークン/分で考え、40時間/週働くと仮定して、「モデルが考える時間」をトークンで換算すると、与えられた問題/プロジェクトにおける人間の時間になる。
仮に「トークンあたり」の知能が同じだったとしても、頭のいい人が問題に費やす時間が数分なのか数ヶ月なのかの違いになる。あなたのことは知らないが、私が数ヶ月でできることと数分でできることは、はるかに、はるかに、はるかに多い。もしモデルに「数分ではなく、数カ月に相当する時間、何かを考え、取り組むことができる」という能力を与えることができれば、その能力は飛躍的に向上するだろう。ここには膨大なオーバーハングがある。
今のところ、モデルにはまだこれができない。最近のロング・コンテキストの進歩をもってしても、このロング・コンテキストのほとんどはトークンの消費にしか機能せず、トークンの生産には機能しない。しばらくすると、このモデルはレールから外れたり、行き詰まったりする。しばらくの間、離れて単独で問題やプロジェクトに取り組むことはまだできない。
しかし、テスト時間の計算を解除することは、単に比較的小さな「ホブリングしない」アルゴリズムの勝利の問題かもしれない。おそらく、少量のRLは、モデルがエラー訂正(「うーん、これは正しくないようだ、再確認してみよう」)を学習したり、計画を立てたり、可能性のある解を探索したりするのに役立つだろう。ある意味、モデルはすでに生の能力のほとんどを持っており、それをまとめるために、さらにいくつかのスキルを学習する必要があるだけなのだ。
要するに、私たちはモデルに、困難で見通しの長いプロジェクトを推論させるシステムIIのアウターループのようなものを教えればいいのだ。
この外側のループを教えることに成功すれば、2、3段落の短いチャットボットの答えの代わりに、モデルが問題を考え、ツールを使い、異なるアプローチを試し、研究を行い、仕事を修正し、他の人と調整し、大きなプロジェクトを一人で完成させるような、何百万もの言葉のストリーム(あなたが読むよりも早く入ってくる)を想像してみてほしい。
続き I.GPT-4からAGIへ:OOMを数える(9)https://anond.hatelabo.jp/20240605210357
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable DiffusionwebUIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clonehttps://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pullorigin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
StopAtlast layers of CLIPmodelを2に、
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHalloAsukaTestなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality,masterpiece,asuka langley sittingcross leggedon a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands,text,error,missing fingers, extra digit, fewer digits, cropped,worst quality,low quality,normal quality,jpeg artifacts,signature, watermark,username, blurry, artistname
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Boorutag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
メモリ :4GB
記録域:eMMC 64GB
OS :Windows 10 Pro 64bit
重量 :1.3kg
ぼろぼろに叩かれてるが、これ、4コアなんでそこそこ動くぞ
N4000は2コア/2スレなんで論外だけどな
メモリ4GBは厳しいが、価格帯5万だと各社がメモリ4GBオンボードのPC売ってる
アイリスオーヤマだけじゃない
DELLの例
NewInspiron 15 3000 (3502)エントリー:税抜き40,980-
メモリ :4GB
記録域:SATA 1TB
重量 :1.77kg
NewInspiron 15 3000 (3501)スタンダードプラス:税抜き58,980-
メモリ :4GB
記録域:SATA 1TB
重量 :1.77kg
アイリスのeMMC 64GBとメモリ4GBの合わせ技は結構えぐいが、「データはUSBで持ちましょう」みたいな運用も可能だろう。
どいつもこいつも、ドヤ顔で貶してて、最近の市場知らんのか?とか思ってしまう
いやいや、その価格帯なら「正解」だろ
PS5が故障しまくりって評判が出ていてなんか中古市場や転売市場が大荒れのようなので調べてみた。一応私見レベル。
今回はPS5の分解映像や動画が数多く出ているからXBOXの設計思想と見比べると、確かにこりゃ故障するわって内容だった。
根本的な原因は、旧世代のゲームハードと比較すると熱源が一気に増えたにつきる。
PS5の熱源は次の5種類
④GDDR6メモリが高温
⑤電源ユニットの冷却不全
①は従来から発熱対象であり、しっかり対策が取られている。 だが②については増加温度に対応できているとは言い難い。
問題は③以降のメモリ系発熱で、特に超高速なSSDを搭載するPS5はその発熱も無視できない。高速通信で常時ストリーミングなんてやればSSDの温度だって70度前後にはなってしまう。
そのためSSDにはヒートシンクを搭載して、排熱を行っているのだが、PS5はヒートシンクはあくまでCPUにつけられていて、メモリ回りの排熱系にはスチールプレートでの排熱で対応している。
さらにGDDR6はCPUの裏に設置してあり、どう見ても温度の影響を受けやすいのだがこれまたスチールプレートでの冷却が図られている。一応メモリからスチールプレートへの熱伝導性向上のために
グリスが塗られているのだが両面基盤の表裏が両方熱源で、CPU側だけにファンがある状態でまともに冷えるかって言われたら。 後はわかるな。
⑤オーバークロックすれば、高電圧が必要で電源ユニットもXBOXよりも高容量を突っ込んでいるけど、個体差とはいえコイル泣きが起きている時点で相当あっぷあっぷなんだろうなと。
その証拠にコントローラー充電系は変な制御がかかっている。コントローラー充電は別コンセントでやったほうがいいだろうと思う。電池あまりもたんのに。
しかもオーバークロックしている割にコンデンサが周りが貧弱なのよね。いや普通のコンシューマーハードなら十分なのだけど、オーバークロックはやっぱり駄目だ。
で、これどうやったら治るんだろう。