現状機械学習のCNNモデルを黙々と調べている今日この頃。次はRNN
で更にLSTMに加えて大規模言語モデルまでナルベク速やかに辿り着き
たいと考えてます。llamaの中にもOpenSourceモデルが出ているので
調査自体は可能だろう。ネックはGPUをどう調達するかだな。4G以上
のメモリをもったカードは比較的高価です。Colaboを利用するにしても
時間制限があるのでどうしたものかね。電気代がAIの実力を反映する
様な時代になるのかもな。そう考えると小型のAI対応PCは意外と役に
立つのかもしれない。
0 件のコメント:
コメントを投稿