Proxmox / Ollama /Open WebUI : Ajout de AUTOMATIC1111

Ma configuration :

J’ai lancé un nouveau test via llm_benchmark, afin de comparer avec ma dernière configuration fonctionnelle :

-------Linux----------
{'id': '0', 'name': 'Quadro M5000', 'driver': '575.51.03', 
'gpu_memory_total': '8192.0 MB', 'gpu_memory_free': '8110.0 MB', 
'gpu_memory_used': '5.0 MB', 'gpu_load': '0.0%', 'gpu_temperature': '43.0°C'}
{'id': '1', 'name': 'Quadro M4000', 'driver': '575.51.03', 
'gpu_memory_total': '8192.0 MB', 'gpu_memory_free': '8110.0 MB', 
'gpu_memory_used': '5.0 MB', 'gpu_load': '0.0%', 'gpu_temperature': '46.0°C'}
At least two GPU cards
Total memory size : 119.03 GB
cpu_info: Intel(R) Xeon(R) CPU E5-2450 v2 @ 2.50GHz
gpu_info: Quadro M5000
Quadro M4000
os_version: Ubuntu 22.04.5 LTS
ollama_version: 0.9.0
----------
...
At least two GPU cards
{
"mistral:7b": "12.31",
"llama3.1:8b": "12.81",
"phi4:14b": "6.75",
"qwen2:7b": "11.36",
"gemma2:9b": "11.79",
"llava:7b": "13.60",
"llava:13b": "10.34",
"uuid": "2a3d3de2-5e53-5b28-a909-62559c5a817c",
"ollama_version": "0.9.0"
}

Avec toutes les versions à jours (kernel, soft, drivers), je suis passé de « llama3.1:8b »: « 15.71 » => « 12.81 ». ( – 20% )

La configuration sur OpenWebUI : (valeurs par défaut) , lire https://stable-diffusion-art.com/samplers/ .

  • Définir le sampler : Euler a
  • Définir le planificateur : Karras
  • Définir la CFG : 7
  • Définir le modèle par défaut : v1-5-pruned-emaonly.safetensors [6ce0161689]  ( https://huggingface.co/stable-diffusion-v1-5 )
  • Définir la taille de l’image : 512×512
  • Définir le nombre d’étapes : 50

Résultat : un mouton . ( via llama3.2:latest )

Misère.

Glance : Super outil … avec quelques manques

Je viens de tester Glance via Docker, sur https://glance.cyber-neurones.org/ .
C’est vraiment très bien, le seul manque c’est de pouvoir rechercher dans les titres YouTube.

Sur les grandes chaines YouTube tels que FranceInter, … il faut pouvoir filtrer sur les titres pour retrouver les émissions. ( J’ai fait une demande de modification : https://github.com/glanceapp/glance/issues/658 )

Pour l’installation c’est ici : https://github.com/glanceapp/glance . J’ai utilisé une VM avec Debian 12 (bookworm) avec Docker Compose (1.29.2).

A suivre.

Tuxedo : Migration vers Ubuntu 24.04.2 LTS et galère …

En passant

J’ai pas la liste complete des actions que j’ai du faire.

Mais j’ai du supprimer « douane » :

dkms remove douane/0.8.2 --all

Sinon j’avais une erreur :

make -j8 KERNELRELEASE=6.8.0-53-generic -C /lib/modules/6.8.0-53-generic/build M=/var/lib/dkms/douane/0.8.2/build...(bad exit status: 2)
ERROR (dkms apport): binary package for douane: 0.8.2 not found
Error! Bad return status for module build on kernel: 6.8.0-53-generic (x86_64)
Consult /var/lib/dkms/douane/0.8.2/build/make.log for more information.
dkms autoinstall on 6.8.0-53-generic/x86_64 succeeded for tuxedo-keyboard virtualbox
dkms autoinstall on 6.8.0-53-generic/x86_64 failed for douane(10)
Error! One or more modules failed to install during autoinstall.

J’ai du supprimer aussi « tuxedo-cc-wmi », pareil sinon j’avais une erreur :

apt-get remove tuxedo-cc-wmi

L’erreur :

make -j8 KERNELRELEASE=6.8.0-53-generic -C . KDIR=/lib/modules/6.8.0-53-generic/build...(bad exit status: 2)
ERROR: Cannot create report: [Errno 17] File exists: '/var/crash/tuxedo-cc-wmi.0.crash'
Error! Bad return status for module build on kernel: 6.8.0-53-generic (x86_64)
Consult /var/lib/dkms/tuxedo-cc-wmi/0.1.7/build/make.log for more information.

Pour l’instant je suis stable avec le kernel :

# uname -a
Linux CYBERNEURONES 5.15.0-130-generic #140-Ubuntu SMP Wed Dec 18 17:59:53 UTC 2024 x86_64 x86_64 x86_64 GNU/Linux
# lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description:    Ubuntu 24.04.2 LTS
Release:    24.04
Codename:   noble

Mais pas possible de lancer le kernel : « 6.8.0-53-generic ».

Avant ceci j’ai eu beaucoup de problème avec Xorg :

sudo apt-add-repository universe 
sudo apt-get update
sudo apt-get install i965-va-driver intel-media-va-driver

sudo adduser $USER video

Misère …

Proxmox/Ollama : llm_benchmark (Test n°2)

En passant

J’ai changé la carte NVIDIA car deux cartes NVIDIA avec 8 Go chacune, elles sont vues par la VM qui est lancé par proxmox :

# nvidia-smi --list-gpus
GPU 0: Quadro M5000 (UUID: GPU-)
GPU 1: Quadro M4000 (UUID: GPU-)
# nvidia-smi      
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 570.86.15              Driver Version: 570.86.15      CUDA Version: 12.8     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  Quadro M5000                   Off |   00000000:00:10.0 Off |                  Off |
| 38%   37C    P8             13W /  150W |       5MiB /   8192MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
|   1  Quadro M4000                   Off |   00000000:00:11.0 Off |                  N/A |
| 46%   39C    P8             13W /  120W |       5MiB /   8192MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+
                                                                                         
+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI              PID   Type   Process name                        GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|  No running processes found                                                             |
+-----------------------------------------------------------------------------------------+

les résultats du test sont les suivants :

# llm_benchmark run
-------Linux----------
{'id': '0', 'name': 'Quadro M5000', 'driver': '570.86.15', 'gpu_memory_total': '8192.0 MB', 'gpu_memory_free': '8110.0 MB', 
'gpu_memory_used': '5.0 MB', 'gpu_load': '0.0%', 'gpu_temperature': '36.0°C'}
{'id': '1', 'name': 'Quadro M4000', 'driver': '570.86.15', 'gpu_memory_total': '8192.0 MB', 'gpu_memory_free': '8110.0 MB', 
'gpu_memory_used': '5.0 MB', 'gpu_load': '0.0%', 'gpu_temperature': '38.0°C'}
At least two GPU cards
Total memory size : 61.36 GB
cpu_info: Intel(R) Xeon(R) CPU E5-2450 v2 @ 2.50GHz
gpu_info: Quadro M5000
Quadro M4000
os_version: Ubuntu 22.04.5 LTS
ollama_version: 0.5.7
----------
....
-------Linux----------
{'id': '0', 'name': 'Quadro M5000', 'driver': '570.86.15', 'gpu_memory_total': '8192.0 MB', 'gpu_memory_free': '3277.0 MB', 
'gpu_memory_used': '4838.0 MB', 'gpu_load': '0.0%', 'gpu_temperature': '65.0°C'}
{'id': '1', 'name': 'Quadro M4000', 'driver': '570.86.15', 'gpu_memory_total': '8192.0 MB', 'gpu_memory_free': '2348.0 MB', 
'gpu_memory_used': '5767.0 MB', 'gpu_load': '0.0%', 'gpu_temperature': '76.0°C'}
At least two GPU cards
{
    "mistral:7b": "16.56",
    "llama3.1:8b": "15.71",
    "phi4:14b": "8.01",
    "qwen2:7b": "15.27",
    "gemma2:9b": "15.81",
    "llava:7b": "17.82",
    "llava:13b": "13.14",
    "uuid": "1a60faf0-e97b-5d47-8de5-03d3b22dfbbc",
    "ollama_version": "0.5.7"
}

Actuellement j’utilise « llama3.1:8b », je suis donc passé le 1.12 (unitilisable) à 15,71 . L’idéal est d’avoir dans les plus de 32 … donc il va falloir trouver deux nouvelles cartes.

Misère.