作者放出教學文了 https://www.youtube.com/watch?v=H9oaNZNJdrw
要開二個BIOS選項,above 4G encoding & resize-bar 1. 裝ROCm 2. pytorch 3. stable diffusion ========= 我上次放出影片時有試,ROCm是有裝成功了,但是在pytorch pipe = pipe.tocuda,這裏跑了一小時也沒反應, 不知是否因為沒開上面的BIOS選項原因, 先等一陣子看有沒有人成功再試較好,這個就窮人的GPT,stable diffusion,算圖還是比GPU慢, 不過Windows能用話,又容易安裝就不錯,許多玩家就玩票性質而已 ※ 引述《egnaro123 (原po是大叔)》之銘言: : https://medium.com/@ttio2tech_28094/democratize-ai-turn-a-95-chip-into-a-16gb-vram-gpu-beats-most-of-the-discrete-gpus-51a8636a4719 : I have tested both training and inferencing for: : A: Stable diffusion, text inversion training. : B: LLM. LlaMA fine tuning (lora). : .... : 似乎比CPU快些 : https://www.youtube.com/watch?v=HPO7fu7Vyw4
: 有APU的人可以試試,想小玩的人也不用完大錢買NV的顯示卡 : 但是GPU還是較快 : ----- : 一些閒聊 : https://old.reddit.com/r/Amd/comments/15t0lsm/i_turned_a_95_amd_apu_into_a_16gb_vram_gpu_and_it/?sort=qa : AMD 4600G/5600G的APU被低估了,這代給太多了 -- ※ 發信站: 批踢踢實業坊(ptt.org.tw), 來自: 118.166.100.125 (臺灣) ※ 文章網址: https://ptt.org.tw/PC_Shopping/M.1693109141.A.42D
oopFoo: above 4G應該是關鍵。在linux裡mesa會直接 36.224.213.216 08/27 12:46
oopFoo: 忽略這個限制,直接使用。resize bar就很 36.224.213.216 08/27 12:46
sachialanlus: 我比較好奇的是 用 apu 的 igpu 去 123.194.148.19 08/27 18:33
sachialanlus: 跑 跟直接用 cpu 跑 哪個快? 123.194.148.19 08/27 18:33
oopFoo: 記憶體的頻寬限制住了,但igpu還是快點 219.70.128.119 08/27 21:00
smilejin: 我妹上包養網被我發現= = 219.70.128.119 08/27 21:00