Hallo
Ich habe ja ein Problem mit dem Update von Transformers (python-transformers). Das habe ich in diesem Beitrag geschildert:
Aber darum soll es nicht gehen. Ich finde wenig info zu diesem im Titel genannten Paket dazu im www. Ja, ich finde schon was, aber ich verstehe es nicht.
Es hat wohl irgendwas mit KI und Maschinellen lernen zu tun.
Da steht dann zu Beginn, eingedeutsch:
Transformers fungiert als Modelldefinitionsframework für hochmoderne Modelle des maschinellen Lernens in den Bereichen Text, Computer Vision, Audio, Video und multimodale Modelle, sowohl für Inferenz als auch für Training.
Es zentralisiert die Modelldefinition, so dass diese Definition im gesamten Ökosystem vereinbart wird.
Transformers
ist der Dreh- und Angelpunkt zwischen den Frameworks: Wenn eine Modelldefinition unterstützt wird, ist sie mit den meisten Trainings-Frameworks (Axolotl, Unsloth, DeepSpeed, FSDP, PyTorch-Lightning, …), Inferenz-Engines (vLLM, SGLang, TGI, …) und angrenzenden Modellierungsbibliotheken (llama.cpp, mlx, …) kompatibel, die die Modelldefinition vonTransformern
nutzen.
Also ich kann nicht verstehen wozu ich dieses Paket benötige:
yay -Si python-transformers
Repository : aur
Name : python-transformers
Version : 4.54.0-1
Beschreibung : State-of-the-art Natural Language Processing for Jax, PyTorch and TensorFlow
URL : https://github.com/huggingface/transformers
Lizenzen : Apache-2.0
Gruppen : Keine
Bietet : Keine
Ist abhängig von : python-filelock python-huggingface-hub>=1:0.30.0 python-numpy python-packaging python-regex
python-requests python-safetensors>=0.4.1 python-tokenizers>=0.19 python-tqdm python-yaml
Optionale Abhängigkeiten : python-bitsandbytes python-flax python-keras python-onnxconverter-common python-pytorch
python-tensorflow python-tf-keras python-tf2onnx python-hf-xet
Abhängigkeiten herstellen : python-build python-installer python-setuptools python-wheel
Prüfe Abhängigkeiten : Keine
Ist in Konflikt mit : Keine
Ersetzt : Keine
AUR-URL : https://aur.archlinux.org/packages/python-transformers
Erstmals eingereicht : Sat 23 Oct 2021 11:30:13 AM CEST
Stichworte : huggingface transformers
Zuletzt geändert : Fri 25 Jul 2025 11:13:50 PM CEST
Betreuer : daskol
Beliebtheit : 0.059545
Stimmen : 15
Veraltet : No
Ich wollte das Thema noch mit Huggingface (python-huggingface-hub) erweitern, siehe Stichworte, aber ich denke das soll es fürs erste gewesen sein.
Also, kann mir jemand beantworten warum mir dieses Paket “untergejubelt” wurde? Wer oder was braucht das?
Kann mir da jemand weiterhelfen?