"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Cuda für AMD - torch_AMD?

Kirby 21.08.2024 - 01:54 2973 33 Thread rating
Posts

MightyMaz

hat nun auch einen Titel
Registered: Feb 2003
Location: .de
Posts: 620
Um an das Flux Modell zu kommen muss man sich registrieren oder?

Kirby

0x19
Avatar
Registered: Jun 2017
Location: Lesachtal/Villac..
Posts: 898
wegen angriffigen ton: ich meine es nie angreiflich. nur mehr als unterhaltung, daher dass ich charmin schon bisschen persönlich kenne meine ich es wirklich nicht ernst. bitte verzeiht mir meine grobe wortwahl.

Kirby

0x19
Avatar
Registered: Jun 2017
Location: Lesachtal/Villac..
Posts: 898
Zitat aus einem Post von MightyMaz
Um an das Flux Modell zu kommen muss man sich registrieren oder?

es gibt das flux-schnell modell. dafür musst du dich nicht registrieren. funktioniert aber auch einwandfrei
wenn du eine ki gscheid trainieren willst ist das flux-dev modell besser. dafür musst du dich registrieren.

Kirby

0x19
Avatar
Registered: Jun 2017
Location: Lesachtal/Villac..
Posts: 898

MightyMaz

hat nun auch einen Titel
Registered: Feb 2003
Location: .de
Posts: 620
Danke für den Link.
Ich hatte schon mit einigen SDXL Modellen experimentiert aber da Flux ja nochmal deutlich besser sein soll werd ich das auch mal testen.

charmin

Super Moderator
10x
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 14600
Zitat aus einem Post von Kirby
wegen angriffigen ton: ich meine es nie angreiflich. nur mehr als unterhaltung, daher dass ich charmin schon bisschen persönlich kenne meine ich es wirklich nicht ernst. bitte verzeiht mir meine grobe wortwahl.

10 "Vater Unser" und dir sei vergeben :o :D

Zitat aus einem Post von daisho
venv ist wohl best practice damit du dir halt nicht irgendein dev environment kaputt machst weil package X dort anders ist usw, spätestens wenn du an 2+ verschiedenen projekten arbeitest wird das dann interessant.

meistens wird conda verwendet, auch wenns saulahm ist. aber hat sich bei machine learning und data science irgendwie etabliert.

Zitat aus einem Post von Kirby
https://huggingface.co/black-forest-labs/FLUX.1-schnell

https://huggingface.co/black-forest-labs/FLUX.1-dev

danke, auf linkedin postet auch einer ständig so flux zeugs.
da gibts eines, welches man mit 10 eigenen fotos finetunen kann und das liefert echt hammermässige ergebnisse...

Longbow

Here to stay
Avatar
Registered: Feb 2003
Location: Homeoffice
Posts: 5298
Zitat aus einem Post von charmin
10 "Vater Unser" und dir sei vergeben :o :D



meistens wird conda verwendet, auch wenns saulahm ist. aber hat sich bei machine learning und data science irgendwie etabliert.
Obacht mit der anaconda, das kann für Firmen sehr schnell, sehr teuer werden, zumal die "Große" eh überladen ist, da würd ich lieber mit der miniconda starten und dann dazu installieren.

Oder gleich die bessere Alternative (ohne kommerzielles Risiko!) nehmen -> die Mamba:
https://mamba.readthedocs.io/en/latest/

charmin

Super Moderator
10x
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 14600
Zitat aus einem Post von Longbow
Obacht mit der anaconda, das kann für Firmen sehr schnell, sehr teuer werden, zumal die "Große" eh überladen ist, da würd ich lieber mit der miniconda starten und dann dazu installieren.

Oder gleich die bessere Alternative (ohne kommerzielles Risiko!) nehmen -> die Mamba:
https://mamba.readthedocs.io/en/latest/

wir verwenden miniconda :)

mamba schau ich mir an, danke schlongbow :D

issue

Rock and Stone, brother!
Avatar
Registered: Feb 2003
Location: Linz
Posts: 3645
Ich hab mir neulich auch mal comfyui + flux1schnell auf meinem amd hobel mit (arch) linux mit der system python install aufgesetzt.
Grob die Schritte:
- comfy ui git repo clonen (https://github.com/comfyanonymous/ComfyUI) und rein wechseln
- ein neues venv anlegen: python -m venv .venv
- venv aktivieren: source .venv/bin/activate
- mit pip pytorch mit rocm support installieren: pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm6.1
- dependencies fuer comfyui installieren: pip install -r requirements.txt

Jetzt das model besorgen. Ich hab flux1schnell fp8 checkpoint genommen, weil mir bei den anderen meine 32gb ram ausgingen und ich mir kein swapfile besorgen wollt.
Download von hier (https://huggingface.co/Comfy-Org/fl...fp8.safetensors) kopieren nach <comfyui-clone-dir>/models/checkpoints

Mit python main.py wird dann comfyui gestartet. Wenn man jetzt ein bild (https://comfyanonymous.github.io/Co...int_example.png)
in die comfyui webui reinzaht, bekommt ma den flux workflow und kann mit den prompts loslegen
Bearbeitet von issue am 08.10.2024, 11:04

Kirby

0x19
Avatar
Registered: Jun 2017
Location: Lesachtal/Villac..
Posts: 898
Wer mit ComfyUI arbeitet sollte auch gleich den Comfyui Manager installieren. Damit kann man kleine models, addons etc leicht managen.
einfach ins comfyui-dir/custom-nodes/ und dann die repo clone

https://github.com/ltdrdata/ComfyUI-Manager

E: comfyui danachneustarten nicht vergessen

MightyMaz

hat nun auch einen Titel
Registered: Feb 2003
Location: .de
Posts: 620
Habs jetzt auch zum laufen gebracht und einige Varianten durchprobiert.
Verwende aktuell https://github.com/likelovewant/sta...ui-forge-on-amd als GUI
Mit wenig Speicher liefert https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4 tendenziell noch bessere Ergebnisse als flux1-schnell-fp8.

Kirby

0x19
Avatar
Registered: Jun 2017
Location: Lesachtal/Villac..
Posts: 898
Zitat aus einem Post von MightyMaz
Habs jetzt auch zum laufen gebracht und einige Varianten durchprobiert.
Verwende aktuell https://github.com/likelovewant/sta...ui-forge-on-amd als GUI
Mit wenig Speicher liefert https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4 tendenziell noch bessere Ergebnisse als flux1-schnell-fp8.

habe selber die fp8 im betrieb. ich probier mich da mal durch danke

charmin

Super Moderator
10x
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 14600
Zitat aus einem Post von Longbow
Obacht mit der anaconda, das kann für Firmen sehr schnell, sehr teuer werden, zumal die "Große" eh überladen ist, da würd ich lieber mit der miniconda starten und dann dazu installieren.

Oder gleich die bessere Alternative (ohne kommerzielles Risiko!) nehmen -> die Mamba:
https://mamba.readthedocs.io/en/latest/

heute probiert miniconda in wsl zu installieren.
zack, kommt eine meldung dass unser unternehmen keine lizenzgebühren bezahlt und ich doch bitte zahlen soll.
geil.
werden wir wohl für alle projekte nun mamba nutzen....

Longbow

Here to stay
Avatar
Registered: Feb 2003
Location: Homeoffice
Posts: 5298
"Ich bin ja kein Data Scientist, aber...." :D

charmin

Super Moderator
10x
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 14600
Haha. Danke :D
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz