Allgemeine ToDos
- in einleitung kurz die Funktionsweise (Chat mit Artefakten) erläutern, damit es anschaulicher wird
- artefakte ggf. noch einmaml kurz erklären und beispiele nennen
- hinzufügen: Konversation + artefakte = wissenschaftliches Journal, kompletet Dokumentation
- Beschreibung des Ablaufs gut, einerseite etwas langatmig, aber gute beispiele
- ggf. konsistentere erklärung anhand eines beispiels
- BACI eher als ein Beispiel von
- erkenntnisse und Grenzen ggf. vor Entwicklung
- Entwicklung etwas klarer strukturieren
- STCM hier sinnvoll?
KI-Forschungsassistent
Wissenschaftliches Arbeiten erfordert methodisches Wissen, das Laien in der Regel nicht mitbringen. Der KI-Forschungsassistent macht dieses Wissen zugänglich: Er führt Teilnehmende im Dialog durch den gesamten Forschungsprozess – von den ersten Fragen bis zur Auswertung der Messdaten.
Warum ein KI-Assistent?
Das Problem: Wissenschaftliche Methodik ist voraussetzungsreich
Bürgerinnen und Bürger, die ihre Umwelt erforschen wollen, stehen vor einer grundlegenden Herausforderung: Wissenschaftliches Arbeiten folgt Regeln und Methoden, die man üblicherweise in einem Studium erlernt. Wie formuliert man eine überprüfbare Hypothese? Welche Variablen müssen kontrolliert werden? Wie plant man ein Experiment, das aussagekräftige Ergebnisse liefert?
Viele Citizen-Science-Projekte umgehen dieses Problem, indem sie Bürger nur für die Datensammlung einsetzen – die eigentliche wissenschaftliche Arbeit übernehmen Fachleute. SensEm verfolgt einen anderen Ansatz: Laien sollen befähigt werden, den gesamten Forschungsprozess selbst zu durchlaufen.
Die Recherche zu Beginn des Projekts zeigte: Fast alle existierenden „Toolkits" für Citizen Science sind im Grunde methodische Leitfäden – Dokumente, die den Prozess beschreiben, aber nicht aktiv dabei unterstützen. Es fehlte an interaktiven Werkzeugen, die Laien Schritt für Schritt durch die anspruchsvollen Phasen der Hypothesenbildung, Experimentplanung und Dateninterpretation begleiten.
Die Lösung: Ein digitaler Mentor
Der KI-Forschungsassistent schließt diese Lücke. Er basiert auf großen Sprachmodellen (Large Language Models) und ermöglicht eine natürlichsprachliche Interaktion: Teilnehmende können ihre Gedanken, Fragen und Beobachtungen formlos äußern – so, wie sie es in einem Gespräch mit einem erfahrenen Wissenschaftler tun würden.
Der Assistent übernimmt dabei drei Rollen:
- Mentor: Er vermittelt fachliches und methodisches Wissen. Er erklärt, was eine gute Hypothese ausmacht, warum Kontrollvariablen wichtig sind oder wie man Messergebnisse interpretiert. Dabei passt er sich dem Kenntnisstand der Nutzenden an.
- Assistent: Er unterstützt bei konkreten Aufgaben. Er hilft, vage Fragen zu präzisieren, schlägt geeignete Experimentdesigns vor und weist auf mögliche Fehlerquellen hin. Durch Rückfragen stellt er sicher, dass wichtige Aspekte nicht übersehen werden.
- Werkzeug: Er generiert wissenschaftliche Artefakte – strukturierte Zwischenergebnisse wie Forschungsfragen, Variablenlisten oder Experimentpläne. Diese Artefakte bilden die Grundlage für die nächsten Schritte im Forschungsprozess.
Der Assistent in der Praxis
Der wissenschaftliche Forschungsprozess folgt einem strukturierten Ablauf von der Problemerfassung über Forschungsfrage, Variablenidentifikation und Experimentdesign bis zur Auswertung (siehe //localhost:1313/02_toolkit/). Der KI-Assistent begleitet Teilnehmende durch diese Phasen und unterstützt bei der Erzeugung der jeweiligen Artefakte. Die Phasen sind nicht streng linear – oft ergeben sich Rücksprünge, wenn sich während der Arbeit neue Fragen oder Präzisierungsbedarf zeigen.
Von Fragen zu Hypothesen
Am Anfang stehen die Beobachtungen und Fragen der Teilnehmenden. Diese sind zunächst oft vage oder emotional gefärbt: „Die Luft hier ist so schlecht" oder „Seit die neue Straße gebaut wurde, ist es viel lauter geworden". Solche Aussagen sind wichtige Ausgangspunkte, aber noch keine wissenschaftlichen Fragestellungen.
Der Assistent hilft, diese Beobachtungen zu präzisieren. Durch gezielte Rückfragen werden implizite Annahmen explizit gemacht: Was genau bedeutet „schlecht"? Welche Schadstoffe sind gemeint? Woran würde man eine Verbesserung erkennen? Gibt es einen Vergleichszeitraum oder -ort?
Im Dialog entsteht schrittweise eine überprüfbare Forschungsfrage. Der Assistent prüft dabei, ob die Frage mit den verfügbaren Mitteln beantwortet werden kann und weist auf mögliche Probleme hin – etwa wenn eine Frage zu viele Variablen gleichzeitig untersuchen will.
Beispiel aus der Fallstudie Proskauer Straße
Die Teilnehmenden wollten wissen, wie sich eine Straßensperrung auf die Umweltbelastung auswirkt. Die anfängliche Frage „Wird es besser, wenn die Straße gesperrt ist?" wurde im Dialog präzisiert zu:
„Wie unterscheiden sich die Lärm- und Feinstaubbelastungen in gesperrten, angrenzenden und Ausweichstraßen während einer temporären Straßensperrung im Vergleich zum Zeitraum nach der Sperrung, kontrolliert für Tageszeit und Wochentag?"
Diese Forschungsfrage benennt klar, was gemessen wird (Lärm und Feinstaub), welche Vergleiche gezogen werden (verschiedene Straßenkategorien, verschiedene Zeiträume) und welche Einflussfaktoren kontrolliert werden sollen.
Variablen identifizieren und strukturieren
Aus der Forschungsfrage extrahiert der Assistent die relevanten Variablen – messbare oder beobachtbare Größen, die im Experiment eine Rolle spielen. Er hilft den Teilnehmenden, diese Variablen zu isolieren und zu klassifizieren: Was ist das Ergebnis, das erklärt werden soll? Welche Faktoren sollen untersucht werden? Welche Einflüsse müssen kontrolliert werden?
Der Assistent erstellt eine strukturierte Liste aller Variablen mit ihren Eigenschaften: Ist die Variable kontinuierlich (wie ein Messwert) oder kategorial (wie der Straßentyp)? In welcher Einheit wird sie gemessen? Woher stammen die Daten – aus der Sensormessung, aus Beobachtungen der Teilnehmenden oder aus externen Quellen wie Wetterdaten?
Experimentdesign entwickeln
Mit der Forschungsfrage und den Variablen ist die Grundlage für das Experimentdesign gelegt. Der Assistent schlägt nun vor, wie das Experiment konkret aussehen sollte. Dabei greift er auf etablierte wissenschaftliche Designs zurück, die für die jeweilige Fragestellung geeignet sind.
Für Interventionsstudien – etwa die Untersuchung einer Straßensperrung – eignet sich das BACI-Design (Before-After-Control-Impact). Es kombiniert zeitliche Vergleiche (vorher/nachher) mit räumlichen Vergleichen (betroffene Bereiche/Kontrollbereiche) und ermöglicht dadurch robuste Aussagen über die Wirkung einer Maßnahme.
Ein zentraler Schritt ist die Definition von Standortkategorien. Für das Beispiel der Straßensperrung ergeben sich vier Kategorien: der gesperrte Abschnitt selbst, angrenzende Straßen, wahrscheinliche Ausweichrouten und Kontrollstraßen, die von der Sperrung unbeeinflusst sein sollten. Jede Kategorie erfüllt eine Funktion im experimentellen Design. Ohne Kontrollstraßen etwa ließe sich nicht unterscheiden, ob eine Veränderung auf die Sperrung zurückzuführen ist oder auf andere Faktoren wie Wetter.
Der Assistent berücksichtigt auch Kontextvariablen, die dokumentiert werden müssen: Welche Zusatzinformationen sind für die spätere Auswertung relevant? Manche werden automatisch erfasst (Wetterdaten), andere müssen von den Teilnehmenden beobachtet werden (Baustellenaktivität, besondere Ereignisse).
Sensorstandorte planen
Die definierten Kategorien müssen mit konkreten Messorten gefüllt werden. Hier kommt das lokale Wissen der Teilnehmenden zum Tragen: Sie kennen ihr Viertel, wissen, welche Straßen als Ausweichrouten genutzt werden, und haben Zugang zu geeigneten Installationsorten.
Der Assistent unterstützt bei der Zuordnung: Passt der vorgeschlagene Ort zur Kategorie? Gibt es praktische Hindernisse? Ist die Verteilung der Messorte ausgewogen? Die Standortplanung verbindet den abstrakten Experimentplan mit der konkreten Geographie des Untersuchungsgebiets.
Datenauswertung unterstützen
Nach der Messphase liegen Daten vor, die interpretiert werden wollen. Der Assistent hilft, die Visualisierungen zu verstehen und Schlussfolgerungen zu ziehen.
Ein wichtiger Schritt ist der Rückbezug zur ursprünglichen Hypothese: Das System berechnet die tatsächlichen Zusammenhänge zwischen den Variablen und vergleicht sie mit den Vermutungen. Wurde die Hypothese bestätigt? Gibt es unerwartete Zusammenhänge?
Der Assistent hilft auch dabei, die Grenzen der Aussagekraft einzuordnen. Korrelation bedeutet nicht Kausalität – ein statistischer Zusammenhang kann viele Ursachen haben. Welche alternativen Erklärungen sind denkbar? Wie belastbar sind die Ergebnisse?
Ergebnisoffenheit
Ein wichtiges Prinzip wissenschaftlichen Arbeitens ist die Ergebnisoffenheit: Die Daten zeigen, was sie zeigen – auch wenn das den ursprünglichen Erwartungen widerspricht. In der Fallstudie Proskauer etwa zeigte sich, dass die Feinstaubbelastung (PM2.5) kein guter Indikator für lokale Verkehrsbelastung ist. Auch solche „negativen" Ergebnisse sind wissenschaftlich wertvoll – sie schärfen das Verständnis dafür, was mit den verfügbaren Messungen tatsächlich erfasst werden kann.
Technische Umsetzung
Die Entwicklung des KI-Forschungsassistenten war ein iterativer Prozess mit Rückschlägen und wichtigen Erkenntnissen.
Entwicklungsgeschichte
Die ersten Experimente mit Large Language Models waren vielversprechend: Ein Prototyp konnte Nutzende effektiv bei der Präzisierung von Forschungsfragen und der Entwicklung von Hypothesen unterstützen. Der Entwurf von Experimenten erwies sich jedoch als deutlich schwieriger. Das System zeigte methodische und logische Schwächen, machte unregelmäßig auftretende Fehler und war insgesamt nicht zuverlässig genug für den praktischen Einsatz.
Die Ursachen lagen in grundlegenden Limitationen der damaligen LLM-Technologie:
- Strukturierte Daten konnten nicht zuverlässig verarbeitet werden. Die Ausgabe konsistenter Datenstrukturen, das Arbeiten mit formalen Modellen und der Aufruf externer Funktionen waren fehleranfällig.
- Minimale Änderungen an den Prompts lösten unvorhersehbare Verhaltensänderungen aus.
- Längere Dialoge und Phasenwechsel führten nicht nur zum „Vergessen" früherer Informationen, sondern auch zu schleichendem Fokusverlust – das System driftete von der eigentlichen Aufgabe ab.
Eine erfolgreiche Umsetzung schien zunächst unwahrscheinlich, trotz umfangreicher Eigenentwicklungen. Die Situation änderte sich, als die großen LLM-Anbieter neue Funktionen einführten: strukturierte Ausgabeformate, native Tool-Integration, verlässliche Funktionsaufrufe und deutlich größere Kontextfenster. Viele der aufwendigen Eigenentwicklungen wurden damit obsolet. Durch die gezielte Kombination dieser neuen Möglichkeiten konnte schließlich ein leistungsfähiger Assistent entwickelt werden, der in der Fallstudie Proskauer Straße erfolgreich erprobt wurde.
Architektur: Spezialisierte Modi für verschiedene Aufgaben
Der KI-Assistent besteht aus mehreren spezialisierten Komponenten. Verschiedene Aufgaben im Forschungsprozess erfordern unterschiedliche Fähigkeiten und unterschiedliches Wissen.
Jede Prozessphase wird durch einen eigenen Modus repräsentiert. Ein Modus umfasst spezifische Anweisungen, relevantes Hintergrundwissen und angepasste Verhaltensregeln. Der Assistent wechselt zwischen diesen Modi je nach aktuellem Stand im Forschungsprozess.
Die Konfiguration erfolgt über verschiedene Prompt-Bausteine:
- System-Prompts definieren die grundlegende Persönlichkeit und Rolle des Assistenten – den Ton der Kommunikation, den Umgang mit Unsicherheit, die Balance zwischen Führung und Offenheit.
- Wissensbausteine integrieren verschiedene Ebenen von Fachwissen: allgemeines Domänenwissen zu Luftschadstoffen und Messtechnik, SensEm-spezifisches Wissen über das Toolkit und den Prozess, sowie lokales Kontextwissen über das jeweilige Projektgebiet.
- Aufgabenspezifische Instruktionen steuern das Verhalten in einzelnen Prozessschritten.
- Übersetzungs-Templates ermöglichen die bidirektionale Kommunikation zwischen natürlicher Sprache und strukturierten Daten.
Context-Engineering: Das Gedächtnis über Phasen hinweg
Ein Citizen-Science-Forschungsprozess erstreckt sich über Wochen oder Monate. Informationen aus frühen Phasen – etwa die ursprüngliche Forschungsfrage – sind auch später relevant. LLM-Kontextfenster haben jedoch Grenzen.
Die Lösung liegt in der strukturierten Speicherung von Artefakten. Wenn eine Phase abgeschlossen ist, wird das Ergebnis als strukturiertes Artefakt in der Datenbank gespeichert. Bei Bedarf kann der Assistent gezielt darauf zugreifen. Für laufende Dialoge kommt zusätzlich eine Kontextkompression zum Einsatz: Das System erstellt Zusammenfassungen und priorisiert, welche Informationen für die aktuelle Aufgabe relevant sind.
Von Sprache zu Struktur und zurück
Eine zentrale technische Herausforderung ist die Übersetzung zwischen natürlicher Sprache und strukturierten Daten. Teilnehmende kommunizieren in Alltagssprache. Das System arbeitet intern jedoch mit definierten Datenstrukturen. Die Ergebnisse müssen wieder so aufbereitet werden, dass sie für Laien verständlich sind.
Beispiel: Bidirektionale Übersetzung
Eingabe des Nutzers: „Ich vermute, dass der Lärm auf der Hauptstraße höher ist als in den Nebenstraßen, aber vielleicht liegt das auch an der Tageszeit."
Interne Extraktion: Das System identifiziert drei Variablen (Lärmbelastung, Straßentyp, Tageszeit), klassifiziert sie und erkennt eine vermutete Beziehung sowie einen Hinweis auf einen möglichen Störfaktor.
Ausgabe an den Nutzer: „Ich habe aus deiner Vermutung zwei Hauptvariablen identifiziert: Die Lärmbelastung ist das, was wir messen wollen. Der Straßentyp ist der Faktor, den wir vergleichen wollen.
Du hast außerdem einen wichtigen Punkt angesprochen: Die Tageszeit könnte das Ergebnis beeinflussen. Wir sollten sie als Kontrollvariable berücksichtigen.
Sollen wir die Variablen so festhalten, oder möchtest du noch etwas ergänzen?"
Erkenntnisse und Grenzen
Was funktioniert
Der KI-Assistent hat seine Praxistauglichkeit in der Fallstudie Proskauer Straße unter Beweis gestellt. Er schlug eigenständig ein BACI-Experimentdesign vor und unterstützte die Teilnehmenden erfolgreich bei dessen Umsetzung. Die dialogbasierte Interaktion erwies sich als niedrigschwelliger Zugang zu methodischem Wissen.
Besonders wertvoll war die Fähigkeit des Assistenten, vage Alltagsbeobachtungen in präzise wissenschaftliche Fragestellungen zu überführen. Die Teilnehmenden konnten ihre Intuition und ihr lokales Wissen einbringen, während der Assistent für die methodische Struktur sorgte.
Was noch nicht funktioniert
Der Umgang mit geografischen Kontexten bleibt herausfordernd. Die automatische Verknüpfung von umgangssprachlichen Ortsbeschreibungen („die Straße hinter dem Supermarkt") mit konkreten Koordinaten und Kartendaten funktioniert noch nicht zuverlässig.
Auch die Balance zwischen Führung und Offenheit erfordert weitere Arbeit. In manchen Situationen ist der Assistent zu direktiv und lässt wenig Raum für unerwartete Ideen der Teilnehmenden. In anderen Situationen fehlt es an klarer Orientierung.
Status: Prototyp mit Entwicklungspotenzial
Der KI-Forschungsassistent ist ein funktionierender Prototyp. Die grundlegende Erkenntnis aus der Entwicklung reicht über SensEm hinaus: Die Möglichkeit, komplexe Fachprozesse durch natürlichsprachliche Interaktion für Laien handhabbar zu machen, eröffnet Anwendungsmöglichkeiten in vielen Bereichen.
Weiterentwicklung
Die rasante Entwicklung im Bereich der Large Language Models eröffnet kontinuierlich neue Möglichkeiten. Techniken wie Retrieval Augmented Generation (RAG) und Finetuning bieten Potenzial für weitere Verbesserungen. Die Integration von KI-gestützten Assistenzfunktionen in andere Anwendungsbereiche – etwa die Analyse und Visualisierung von Mobilitätsdaten – ist bereits in Arbeit.
Die konzeptionelle Grundlage: Space-Time-Concept Map
Der KI-Assistent ist eng mit einem anderen zentralen Konzept von SensEm verbunden: der Space-Time-Concept Map. Diese verknüpft drei Dimensionen, in denen Forschungswissen verortet werden kann:
- Raum: Eine Stadtteilkarte zeigt Messorte, relevante Punkte wie Schulen, Parks oder Hauptstraßen, und die räumliche Verteilung von Beobachtungen.
- Zeit: Ein Zeitstrahl erfasst Ereignisse, Messzeiträume und Veränderungen – etwa eine temporäre Straßensperrung oder den Beginn von Bauarbeiten.
- Bedeutung: Ein Conceptual Framework stellt Variablen und ihre vermuteten Zusammenhänge als Netzwerk dar.
In der Entwicklung zeigte sich: Die visuelle Modellierung in der Space-Time-Concept Map ist ein mächtiges Werkzeug für Analyse und Planung. Als primäres Interaktionswerkzeug für Laien erwies sie sich jedoch als zu komplex. Die Lösung war, die Kernkomponenten – Datenstrukturen, Algorithmen und Visualisierungen – in den KI-Assistenten zu integrieren. Der Assistent nutzt diese Strukturen intern, macht sie aber durch natürliche Sprache zugänglich. So können Teilnehmende die Vorteile der systematischen Modellierung nutzen, ohne die technischen Details verstehen zu müssen.
Was ist ein wissenschaftliches Artefakt?
Im SensEm-Kontext ist ein Artefakt ein definiertes Zwischenergebnis des Forschungsprozesses. Beispiele sind eine präzise formulierte Forschungsfrage, eine Liste der relevanten Variablen mit ihren Eigenschaften oder ein Experimentplan mit Standortkategorien. Jedes Artefakt hat eine klare Struktur und kann vom System weiterverarbeitet werden – es bildet die Schnittstelle zwischen den Prozessphasen.