Sprache: Deutsch
08.04, 14:30–15:30 (Europe/Berlin), Raum Hamburg
In diesem Vortrag werfen wir einen Blick hinter die Kulissen von Large Language Models (LLMs): Wie funktionieren sie, wie werden sie trainiert, und wie können sie lokal eingesetzt werden? Neben der Theorie beschäftigen wir uns mit praktischen Tools und Ansätzen, um Open-Source-LLMs effizient auf eigener Hardware zu nutzen und sie mit wenigen Zeilen Code in Projekte zu integrieren. Ideal für Entwickler, die LLMs besser verstehen und gezielt einsetzen möchten.
Zusammen schauen wir uns die Funktionsweise von Large Language Models (LLMs) an und erkunden, wie sie in eigenen Projekten eingesetzt werden können. Wir werfen einen Blick hinter die Kulissen und schauen uns an, wie LLMs Texte generieren. Wir schauen uns an, wie LLMs trainiert werden und klären auf, was Basismodelle von Instruction-Tuned-Modellen unterscheidet und wie Quantisierung dabei hilft, Open-Source-Modelle auf eigener Hardware einzusetzen. Zudem beschäftigen wir uns mit der Evaluierung von LLMs und schauen uns an, wie diese helfen, das richtige Modell für das eigene Projekt zu finden.
Im praktischen Teil zeige ich, welche Open-Source-LLMs tolle Ergebnisse erzielen und wie sie lokal ausgeführt werden können. Gemeinsam schauen wir uns an, was für Hardware nötig ist und welche Projekte sich für den Einsatz auf Servern eignen. Zum Schluss zeige ich euch, wie man ein lokales LLM in – mit wenigen Zeilen Code in euer eigenes Projekt integriert.
Dieser Vortrag ist ideal für Entwickler, die LLMs besser verstehen und Open-Source-LLMs einsetzen möchten.
Ich bin Co-Founder der Impact Labs GmbH, wo wir die nächste Generation von Voice Interfaces entwickeln. Mit meiner Leidenschaft für IT und KI arbeite ich daran, die Interaktion zwischen Mensch und Maschine zu verbessern.
Meine Promotion im Bereich Künstliche Intelligenz an der Technischen Universität Dresden konzentrierte sich auf die Entwicklung eines Voice Interfaces für Roboter in Pflegeanwendungen. Sowohl als Softwareentwickler als auch als Wissenschaftler habe ich fundierte Erfahrungen in der Softwarearchitektur und habe großen Spaß daran beide Themenfelder zusammenzuführen.
Im Jahr 2024 wurde ich als Microsoft Most Valuable Professional (MVP) für Azure AI Services ausgezeichnet und engagiere mich aktiv in der KI-Community.
Ich freue mich, mich mit euch auszutauschen, neue Ideen zu entwickeln und Lösungen zu schaffen, die einen echten Unterschied machen.