This page is only available in German.

Digitalisierung | Projektmanagement Datenqualitätsmanagement

Datenquellenerschließung und Datenqualitätsmanagement für heiFIS und heiANALYTICS

Das Projekt zielt darauf ab, externe (z. B. GEPRIS, EU-Datenbanken, Fördermitteldatenbanken, Publikationsdatenbanken wie OpenAlex und heiBIB) sowie interne Datenquellen (z. B. SAP, SVH) systematisch zu erschließen und möglichst automatisiert in die Systeme heiFIS und heiANALYTICS zu übertragen. Ein Schwerpunkt liegt dabei auf der Sicherstellung und nachhaltigen Verbesserung der Datenqualität, sodass Kennzahlen und Berichte für Entscheidungsträger:innen verlässlich und konsistent bereitgestellt werden können.

Datenquellerschließung und Datenqualitätsmanagement

Ausgangslage / Hintergrund

Derzeit werden relevante Forschungs- und Verwaltungsdaten aus unterschiedlichen Quellen oftmals manuell zusammengetragen und gepflegt. Dies führt zu:

  • hohem Zeitaufwand in Fachbereichen und Verwaltung
  • Inkonsistenzen in den Daten (z. B. Dubletten, veraltete Informationen)
  • begrenztem Automatisierungsgrad in der Datenintegration

 

Die Universität Heidelberg benötigt für interne Steuerung, für Reports an Fördermittelgeber sowie für Rankings konsistente, transparente und aktuelle Daten. Durch die zunehmende Vielfalt und Komplexität der Datenquellen (national, EU-weit, international, intern) gewinnt deren standardisierte Erschließung und Qualitätsprüfung stark an Bedeutung.

Geplante Maßnahmen / Vorgehen

  • Analyse der relevanten Datenquellen (extern und intern, inkl. Schnittstellen- und Datenmodellbewertung)
  • Definition von Standards für Datenformate, Austauschprotokolle und Qualitätssicherung (Validierungsregeln, Plausibilitätsprüfungen)
  • Entwicklung von Schnittstellen und Automatisierungsroutinen zur Datenübernahme (API-Anbindungen, ETL-Prozesse)
  • Aufbau eines Datenqualitäts-Frameworks (z. B. Kriterienkatalog für Vollständigkeit, Konsistenz, Aktualität)
  • Integration der Daten in heiFIS und heiANALYTICS durch abgestimmte Workflows
  • Pilotierung mit ausgewählten Quellen (z. B. GEPRIS, OpenAlex, SAP) zur Validierung der Prozesse
  • Rollout auf weitere Systeme und Quellen inkl. Evaluierung der Datenqualität
  • Kontinuierliche Verbesserung durch Feedbackschleifen und Monitoring

Beteiligte / Rollen

  • Projektleitung:
    • Christina Mack, Dezernat Digitale Transformation (DT)
    • Teresa Johann, Dezernat Forschung
  • Projektteam:
    • Vertreter:innen aus Dezernat Forschung, Dezernat Finanzen, Universitätsbibliothek, Rechenzentrum
    • Fachspezialist:innen für SAP, heiFIS, heiANALYTICS sowie Datenqualitätssicherung
  • Stakeholder:
    • Prorektorat Digitalisierung, Kanzler, Digital Office
    • Forschende und wissenschaftliche Einrichtungen
    • Externe Fördermittelgeber

Nutzen für die Universität

  • Zuverlässige Datenbasis für Steuerungsentscheidungen, Kennzahlen, Berichtspflichten und Rankings
  • Reduzierung manueller Aufwände durch Automatisierung
  • Verbesserte Datenqualität (aktuell, konsistent, nachvollziehbar)
  • Stärkung der Transparenz gegenüber Fördermittelgebern, Öffentlichkeit und Wissenschaft
  • Grundlage für digitale Prozesse in Forschung, Verwaltung und Strategieentwicklung

Herausforderungen

  • Technische Vielfalt der Datenquellen (heterogene Schnittstellen, unterschiedliche Datenmodelle, inkonsistente Metadaten)
  • Sicherstellung der Datenqualität bei parallelen Quellen (z. B. Abgleich zwischen SAP und externen Fördermitteldatenbanken)
  • Komplexität der Schnittstellenentwicklung, insbesondere für internationale und EU-Datenquellen
  • Veränderungsmanagement: Einbindung von Fachbereichen, Sensibilisierung für Datenqualität, Überwindung bestehender Arbeitsroutinen
  • Ressourcenplanung: Koordination zwischen vielen beteiligten Einheiten und Sicherstellung ausreichender Kapazitäten in IT und Fachabteilungen

Aktueller Status (Februar 2026)

  • Aufbau eines auf die universitäre Verwaltung zugeschnittenen Datenqualitäts-Konzept
  • Vorbereitende Gespräche zur Ressourcenplanung und Definition erster Anforderungen finden derzeit statt
  • Erprobung und Evaluierung von Softwarelösungen für ein effizientes und einheitliches Datenmanagement in Planung