![[Formales]]
![[Portrait_25_09_14_Obsidian.png]]
---
# Wer ich bin und was ich bewirke
Ich bin IT-Didaktiker mit sozialpädagogischem Hintergrund und arbeite seit über 20 Jahren an der Schnittstelle von technischer Komplexität und menschlichem Lernen – u. a. für die FU Berlin, TU Berlin, Uni Potsdam und die Charité. Institutionen, in denen Forschende, Verwaltungsfachkräfte und medizinisches Personal komplexe technische Werkzeuge unter realen Bedingungen einsetzen müssen.
Was das konkret bedeutet: Ich erkläre statistische Verfahren und KI-Konzepte so, dass sie am selben Tag anwendbar sind – nicht weil ich vereinfache, sondern weil ich verstehe, wie Menschen unter kognitivem Druck lernen. Technikangst ist für mich kein Charaktermerkmal meiner Teilnehmenden, sondern eine Designherausforderung meiner Kurse.
# HERALD <br> Mein methodischer Ansatz
Aus dieser Haltung habe ich die HERALD-Methodik entwickelt: ein narrativer Lernansatz, der technische Komplexität über Geschichten, Rollen und Entscheidungssituationen zugänglich macht. HERALD strukturiert Inhalte als Abfolge von Entscheidungen mit unmittelbarem Feedback, sodass Fehler früh sichtbar und korrigierbar werden.
Teilnehmende arbeiten nicht mit abstrakten Übungsdaten, sondern mit fiktiven, aber realistischen Szenarien – einer Forschungsgruppe, die unter Zeitdruck eine Studie analysieren muss; einem Verwaltungsteam, das einen Workflow automatisieren soll.
# Fachliches Fundament
Mein fachliches [Fundament ist bewusst breit angelegt](https://www.credly.com/users/b460b129-b3a1-4b2e-a8e9-be7c57ee705d/badges#credly) – von Datenbanken über Netzwerke bis Softwareentwicklung –, weil Projekte an der Schnittstelle von KI, Datenanalyse und Verwaltungsdigitalisierung Wissen aus mehreren IT-Domänen gleichzeitig verlangen.
Darauf aufbauend arbeite ich in vier Kompetenzfeldern:
> [!NOTE] Statistik & medizinische Datenanalyse
> Reproduzierbare Analyse-Templates für Forschungsteams – von explorativer Analyse über Missing-Data-Behandlung (MICE, Multiple Imputation) bis zu konfirmatorischer Statistik mit medizinischen Datensätzen. Umgesetzt in R und Python.
> [!NOTE] Visualisierung & Reporting
> Verständliche Datenvisualisierungen und barrierefreie Dokumente – mit ggplot2, Power BI und nach BITV 2.0.
> [!NOTE] Automatisierung & Modernisierung
> Workflow-Automatisierung und Migration von Legacy-Systemen (VBA zu Python) für Hochschulverwaltungen und Bibliotheken.
> [!NOTE] KI-Infrastruktur & Governance
> DSGVO-konforme KI-Infrastrukturen mit lokalem LLM-Hosting. Orchestrierung von Multi-Agenten-Systemen, Prompt- und Policy-Design, Logging und Evaluationsroutinen. Modellagnostischer Ansatz – Auswahl nach Datenschutz, Kosten, Latenz und Nachvollziehbarkeit, nicht nach Hersteller.
# Was das in der Praxis aussieht
Für statistische Lernkontexte habe ich mit p5.js ein interaktives Case-Telling-Format entwickelt: Über einstellbare Parameter, die komplex miteinander interagieren, wird eine Patientenkohorte simuliert – Teilnehmende analysieren die generierten Daten und entwickeln daraus eine interpretierte Datengeschichte. Was zeigt diese Kohorte? Welche Muster sind sichtbar, welche Schlüsse statistisch belastbar – und welche nicht?
Am Ende steht ein reproduzierbarer Analyse-Workflow (EDA → Modell → Interpretation) plus eine dokumentierte Datengeschichte.
> [!SUCCESS] Wo und für wen
> Ich entwickle Curricula und führe Kurse durch – für Fortbildungsakademien im Gesundheitswesen, Graduiertenakademien und Verwaltungsdigitalisierung. Der gemeinsame Nenner meiner Zielgruppen: Menschen, die technische Werkzeuge nicht aus Neugier lernen, sondern weil ihre Arbeit es verlangt – und die dabei einen Lernkontext brauchen, der Komplexität ernst nimmt, ohne Überforderung zu produzieren.
---
# Kontakt
[Peter Kocmann, LinkedIn](https://www.linkedin.com/in/)
```
Peter Kocmann
Story-basierte Didaktik für Statistik, Python, R & KI
FU Berlin, TU Berlin, Uni Potsdam & Charité
```
E-Mail: [
[email protected]](mailto:
[email protected])
Standort: Berlin