LLM ollamaのバージョン0.20.x以降でRadeon780MのiGPUが認識しなくなった不具合と、lemonadeの導入でRadeon780Mでの推論の稼働が復活した備忘録
不具合の前の状態ollama 16.xではRadeon780Mで動作していたrocmでは動かないvulkanで動作(※環境変数にvulkan用の設定)GPUが認識しない場合は、CPUで動作する不具合のトリガーollama 20.xへのアップ...
LLM
LLM
Nextcloud
MySQL
Nvidia
cloudfront
AWS
Nvidia
ubuntu
yaml