2025年01月30日 弁天 さんの個別チャットログ


※ 分析結果はあくまでも目安です。

表示数 / 総発言数 : 5 / 5 回

(※表示にはcanvas要素を解釈可能なブラウザが必要です)
13時の発言 : 5 回

表示日付変更 : 1日前 1日後
[13:28:11] DeepSeek を Apple の M1 プロセッサと、16GB RAM というリソースが限定的な環境でローカル動作させてみたけどクラウド上のサーバーに依存することなく LLM をローカル動作させて ChatGPT のような AI を動かせるのはすごいことだな…
[13:28:32] nVidia の CUDA を使わなくても、Apple の Metal でも良いし
[13:29:37] 何なら CPU だけでも動作する
[13:30:39] nVidia の高性能半導体が不要になるとは思わないけど、少なくともコンシューマー用途でモデル実行をするためだけにクラウド上の nVidia 製 GPU チップに依存し大電力を消費することなくローカルの CPU/GPU を使って処理が簡潔できるというのはでかい
[13:32:14] おそらく、今後 Apple の M シリーズが搭載しているような、ニューラルエンジンコア(NCU)や、Google の TensorFlow チップを利用したローカルアクセラレーターを用いた高速化手法が出てくるんだろうなぁ…