Diese Website verwendet nur technisch notwendige Cookies. In der Datenschutzerklärung können Sie mehr dazu erfahren.

Zum Hauptinhalt springen
Logo, Startseite der Hochschule der Medien

 

Beschreibung von Forschungsthemen pro Forschungsleuchtturm
Forschungsleuchtturm
Titel Institute for Applied Artificial Intelligence
Kurzbeschreibung: Das Institut für Angewandte Künstliche Intelligenz ist bestrebt, KI in die Anwendung zu bringen und so die Lücke zwischen Forschung einerseits und Unternehmen und Gesellschaft andererseits zu schließen. Indem das IAAI den Überblick über aktuelle KI Entwicklungen behält, aktuelle Forschungsergebnisse bewertet und ihr Potenzial für Unternehmensanwendungen versteht, trägt es dazu bei, KI als Schlüsseltechnologie der Zukunft zu etablieren.
URL: https://ai.hdm-stuttgart.de/
Forschungsprojekt 1
Titel: FACTSBot - Ein System zur KI-gestützten Detektion, Validierung und Bewertung maschinell generierter Inhalte für die Identifikation von Fehlinformationen

Projektbeschreibung (Forschungsfragen, Vorgehen, erwartete Ergebnisse)

Ausgangspunkt
Das Vorhaben FACTSBot der Hochschule der Medien Stuttgart und der DEFINE MEDIA GmbH zielt darauf ab, die Grenzen zwischen wissenschaftlicher Forschung und praktischer Anwendung in der Bekämpfung von Fehlinformationen durch KI-Technologien zu überbrücken. Durch die Integration von neuesten Erkenntnissen aus der KI-Forschung in die Entwicklung von FACTSBot werden Forschungsergebnisse direkt für die Schaffung einer technologischen Innovation genutzt, die durch die Erkennung von Fake-News dem Schutz der digitalen Integrität und der Förderung ethischen Verhaltens im digitalen Raum dient. Die Erforschung und Entwicklung von FACTSBot qualifiziert wissenschaftliche Erkenntnisse aus dem Bereich maschineller Lernverfahren wie z.B. die Methoden der natürlichen Sprachverarbeitung mit Large Language Models (LLMs) für ihre Nutzung in zukünftigen Anwendungen im Bereich der digitalen Medienintegrität. Es soll aufzeigen, wie neueste wissenschaftliche Erkenntnisse und Innovationen im Bereich der Künstlichen Intelligenz direkt zur Lösung gesellschaftlicher Herausforderungen beitragen können. Das Projekt strebt an, erfolgreiche Strategien und KI-Technologien zur Erkennung und Bewertung von Fehlinformationen zu skalieren. Durch die Zusammenarbeit von Praxisexperten aus dem Bereich der Cloud-basierten Software-Entwicklung, maschineller Lernverfahren sowie Forschenden der Medien- und Kommunikationstechnik werden derzeitige state-of-the-art (SOTA) Methoden nach momentanem Stand der Forschung evaluiert und ausgeweitet, um ein skalierbares System zu entwickeln, welches große Datenmengen von Verlagspartnern verarbeitet und mithilfe künstlich Intelligenter Methoden potenzielle Fehlinformationen in digitalen Medien erkennt. Mit Hilfe des bereits bestehenden Netzwerks der DEFINE MEDIA GmbH soll im Rahmen des Vorhabens untersucht werden, inwieweit deutsche Verlagspartner an dem Forschungsprojekt FACTSBot für einen erfolgreichen Transfer in ein marktfähiges Produkt beteiligt werden können. Vielfältige Anwendergruppen wie Konsumenten, Unternehmen, Medienhäuser, Verlage, Werbeagenturen und soziale Plattformen profitieren kurzfristig von der Identifikation und Kennzeichnung problematischer, KI-generierte Inhalte. Langfristig fördern wir durch FACTSBot ethisches Verhalten im digitalen Raum und stärken das Vertrauen der Nutzer in online verfügbare Informationen und Online-Plattformen in Deutschland. Das große Innovationspotenzial liegt in der Automatisierung und Effizienzsteigerung der Inhaltsvalidierung. Nutzer können dadurch nicht nur auf generative KI-Technologien zugreifen, sondern diese auch effizient nutzen und automatisiert validieren.

Ziele und mögliches Vorgehen
Ziel dieses Projekts ist die Entwicklung und Bereitstellung von FACTSBot (engl. „Fake Article Classification and Truth Screening Bot“), ein benutzerfreundliches System zur KI-gestützten Detektion, Validierung und Bewertung maschinell generierter Inhalte für die Identifikation von Fehlinformationen in Nachrichten- und Informationsseiten. Das Ziel des Verbundvorhabens mit der DEFINE MEDIA GmbH ist der Schutz der digitalen Integrität und die langfristige Förderung von ethischem Verhalten im digitalen Raum. Dabei werden moderne KI-Technologien in Kombination mit großen Datenmengen der Verlagspartner von DEFINE MEDIA genutzt, um das Problem der rasanten Verbreitung irreführender Inhalte zu lösen.

Projektstatus
Ein Forschungsantrag für eine einjährige Finanzierung in Kooperation mit dem Verbundpartner DEFINE MEDIA wurde erfolgreich gestellt und die Finanzierung durch das BMBF bewilligt.

Der/die MR3 Studierende würde an bereits vor-definierten Forschungsfragen in dem Projekt mitarbeiten und wäre unmittelbar in das Team eingebunden. Mögliche Themen beinhalten:

•    Die Gestaltung und Untersuchung einer benutzerfreundlichen, intuitiven und zugänglichen Frontend-Oberfläche für FACTSBot.
•    Der Aufbau einer umfassenden Wissensdatenbank, die eine robuste, erweiterbare und effizient abfragbare Datenstruktur umfasst und als Basis für KI-gestützten Fake News Detection von FACTSBot dient.
•    Entwicklung und Training eines Machine Learning Modells, das in der Lage ist, Fehlinformationen und Inhalte mit hoher Präzision und Zuverlässigkeit zu identifizieren. Das Modell wird durch den Einsatz zeitgemäßer Machine-Learning-Techniken entwickelt, um Inhalte in Textform in verschiedenen Sprachen zu analysieren. Dafür ist eine Hauptaufgabe die Erstellung von vertrauenswürdigen Trainigsdatensätzen zur Fake News Erkennung. Um die Genauigkeit und Effektivität zu verbessern, wird das Modell iterativ und unter Einbezug neuer Daten optimiert.
•    Entwicklung eines umfassenden Konzepts für einen Trust Score, der die Vertrauenswürdigkeit von Nachrichten- und Informationsquellen bewertet, basierend auf der KI-gestützten Detektion, Validierung und Bewertung von Nachrichteninhalten. Dieser Score soll Nutzern eine klare und verständliche Metrik bieten, um die Glaubwürdigkeit von Informationen zu beurteilen. Der Score wird durch Analysen der ML-Modelle generiert und soll verschiedene Faktoren wie die Historie der Quelle, die Übereinstimmung mit verifizierten Daten, die Präsenz identifizierter Fehlinformationen sowie die Wahrscheinlichkeit, dass Texte KI-generiert wurden berücksichtigen. Der Trust Score wird im Frontend von FACTBots für den Nutzer dargestellt.

Laufzeit: 24 Monate
Fördervolumen, Fördergeber: ca. 150 000 Euro, BMBF, DATIPILOT