Rückblick Fachgruppe KI: Training and Deploying LLMs // LLM Security
Das letzte Treffen der Fachgruppe KI fand in den Räumlichkeiten des COBL statt und bot eine Mischung aus technischen Einblicken, Diskussionen zur Cybersicherheit und lebhaftem Networking. Die Teilnehmer hatten die Gelegenheit, sich über die neuesten Trends in der Welt der Künstlichen Intelligenz auszutauschen, mit einem besonderen Fokus auf Open Source Large Language Models (LLMs) und AI-Sicherheit.
Einblicke in Open Source LLMs
Den Auftakt machte Steffen Brandt von opencampus.sh, der einen Einblick in die aktuellen Trainingsverfahren und Deployment-Methoden von Open Source LLMs gab. Open Source-Modelle sind dabei nicht nur kostengünstiger als proprietären Alternativen, sondern in vielen Aspekten bereits leistungsstärker als ältere Generationen proprietärer Modelle, wie etwa ChatGPT 3.5. Ein weiterer Aspekt war die Erörterung von benutzerfreundlichen Frameworks, die es ermöglichen, LLMs no-code-basiert zu trainieren und zu hosten.
Sicherheitsrisiken und Lösungen bei LLM-Anwendungen
Jan Monica von Siemens brachte die Teilnehmenden auf den neuesten Stand bezüglich der Cybersicherheitsrisiken, die mit LLMs einhergehen. Durch die Vorstellung von Risiken wie „Prompt Injection“, „Training Data Poisoning“ und „Supply Chain Vulnerabilities“ anhand von konkreten Beispielen wurde deutlich, wie komplex und vielschichtig die Sicherheitsherausforderungen in diesem Bereich sind. Die rasante Entwicklung der aktuellen Frameworks und die damit verbundenen Unsicherheiten aus Sicht der Software-Entwicklung unterstrichen die Notwendigkeit der Fokussierung auf AI-Cybersecurity.
Networking bei Pizza und Getränken
Nach den Vorträgen wurde der Abend mit Pizza und Getränken abgerundet und fast alle Teilnehmenden haben die Gelegenheit genutzt sich weiter zu KI-Themen auszutauschen und zu vernetzen.
Hier finden Sie außerdem die Vortragsfolien von Jan Monica und Steffen Brandt bzw. Niels Rogge: