Wie mache ich aus Daten Wissen?
Wissenschaftsinstitionen wie Hochschulen, außeruniversitäre Einrichtungen, Behörden und privatwirtschaftliche Unternehmen (z.B. Grabungsfirmen) erheben eine Vielzahl heterogener Datensätze in den unterschiedlichsten Formaten, Detailgraden und Qualitäten im Bereich de objektbezogenen materiellen Erbes der Menschheitsgeschichte.
Um diese Daten gemeinsam wissenschaftlich auswerten zu können, ist die Anwendung der FAIR-Prinzipien (unter Berücksichtigung von CARE und TRUST) mit dem Gedanken von Open Science, sowie gemeinsamer Community-Standards zum Austausch von Daten unerlässlich.
Zur Verknüpfung der Daten ist das Mittel der Wahl die Technologie der semantischen Modellierung und die konsequente Anwendung der Linked Open (Usable) Data Prinziples (LOD) nach Sir Tim Berners-Lee und Rob Sanderson unter Einbeziehung des W3C Standards Resource Description Framework (RDF), sowie Community-Hubs wie dem Wikiversum (z.B. Wikidata, Wikimedia Commons) oder OpenStreetMap.
In NFDI4Objects, insbesondere im Bereich der Digitalen Archäologie und Digital Cultural Heritage, stehen mit CIDOC CRM, PROV-O, SKOS, GeoSPARQL, schema.org und der davon abgeleiteten Linked Archealogical Data Anwendungsontologie (LADO) Referenzmodelle und Ontologien zur Verfügung, die ein gemeinsames semantisch-vernetztes Datenmodell ermöglichen, welche in einem Knowledgegraph münden können, der FAIR durchsuchbar sein kann.
Dieser Kurzvortrag zeigt beispielhaft Herausforderungen und Lösungsansätze zur semantischen Modellierung mit LOD aus dem NFDI4Objects Konsortium (u.A. Terra Sigillata, Schiffsdarstellungen auf Objekten, Ogham Steine), Fuzzyness und Wobbliness sowie die Einbindung von Citizen Science Community Hubs und wie diese Daten (inkl. Medien wie Bilder) in einem Knowledgegraph zur (semi-automatischen) Wissensgenerierung mit Hilfe von Reasoning genutzt werden können.