erneut zu einem Workshop rund um Large Language Models (LLMs) in die Albertina Bibliothek der Universität Leipzig ein.
Nutzen
Sie die Gelegenheit, sich mit Expertinnen und Experten aus Klinik,
Forschung und Industrie über aktuelle Entwicklungen, Potenziale und
Herausforderungen von KI-Sprachmodellen im klinischen Alltag
auszutauschen.
In Vorträgen berichten Referierende aus ganz
Deutschland über ihre Erfahrungen mit LLMs – von der
Arztbriefgenerierung bis hin zu ethischen Fragestellungen.
LLMs
(Large Language Models) sind KI-gestützte Sprachmodelle, die aus
umfangreichen Textdaten lernen und eigenständig Texte generieren können.
Besonders im Gesundheitswesen bieten sie vielfältige
Einsatzmöglichkeiten, etwa zur Automatisierung von Routineaufgaben wie
dem Schreiben von Arztbriefen oder der klinischen Kodierung.
Das Programm im Überblick:
- ARGO – automatische Generierung von Arztbriefen am Ende eines stationären Aufenthalts
Referent: Julius Obergassel, IDM gGMBH / Universitätsklinikum Hamburg Eppendorf - Strukturierte,
interoperable Gesundheitsdaten als Grundlage von LLM-basierten
Anwendungen zur klinischen Dokumentation und Workflowunterstützung
Referent: Julian Hugo, Tiplu GmbH - Klinische Kodierung mit LLMs: Alte Probleme lösen – und neue schaffen!?
Referent: Sven Büchel, ID GmbH & Co. KGaA - Leitlinien und Argumentation: Wie bringen wir den Sprachmodellen diagnostisches Denken bei?
Referenten: Dennis Fast / Conor Fallon, AG Alexander Löser, Berliner Hochschule für Technik (BHT) - Generative KI & Ethik - Anwendung von KI – Positionspapier in Kooperatoin mit Cancer Core Europe
Referentin: Dr. med. Sonja Mathes, Klinik für Dermatologie & Mitglied der Ethikkommission, TUM Klinikum Rechts der Isar - Projekt TEDIAS – Einsatz von Chatbot- und Sprachtechnologie für die Digitalisierung der Patientenaufnahme
Referent: Sebastian Schöning, Fraunhofer IPA
Sie haben Interesse? Bitte registrieren Sie sich bis zum 01. Mai 2025
hier.
Hintergrund: Klinische Texte für die automatisierte Verarbeitung erschließen
Auf
künstlicher Intelligenz basierende Sprachmodelle wie ChatGPT sind
mittlerweile Teil des Alltags unterschiedlicher Berufsgruppen geworden.
Auch für die medizinische Forschung und Versorgung können diese Modelle
einen Mehrwert bieten. Textverarbeitungsmodelle, die auf künstlicher
Intelligenz basieren, werden auch Large Language Models genannt. Mittels
Verarbeitung Natürlicher Sprache (Natural Language Processing, kurz:
NLP) werden LLM mit großen Textmengen trainiert, sodass diese
selbstständig Texte erstellen, zusammenfassen oder Fragen beantworten
können.
Im GeMTeX-Projekt der Medizininformatik-Initiative (MII)
wird daran gearbeitet, Texte aus der klinischen Versorgung so
aufzubereiten, dass diese mit NLP-Methoden automatisiert gelesen und von
LLM verarbeitet werden können. Datenschutz und Datensicherheit haben
dabei die höchste Priorität. Im Rahmen des Projekts wird eine zentrale
technische und organisatorische Struktur geschaffen, um anonymisierte
Texte zu sammeln und sie richtlinienkonform zur Anreicherung zu
bearbeiten. Das Ziel ist, das größte Korpus für medizinische Texte in
deutscher Sprache zu erstellen und für die Forschung zugänglich zu
machen.
Weitere Informationen zu GeMTeX_MI – German Medical Text Corpus finden Sie hier.