---
tags: RDMS
---
# IKS - Opgaver vedrørende data management
## Formål
Undersøge forskernes behov for information og support ift. data management (+ databeskyttelse, informationssikkerhed og god videnskabelig praksis).
## Introduktion
Det følgende beskriver __Data Management__ udfra fire dimensioner:
1. Hvilke behov for information og support har forskerne?
2. Hvordan er forskernes nuværende oplevelse af information og support?
3. Kender I gode eksempler på, hvordan information og support om de førnævnte emner ideelt set skulle præsenteres?
4. Hvordan ser forskernes hverdag ud når det gælder om at finde information eller få support om førnævnte emner?
Den primærre reference er derfor Data management: https://medarbejdere.au.dk/research-data-management/. De fleste eksempler og forslag kan imidlertid generaliseres til databeskyttelse, informationssikkerhed og god videnskabelig praksis.
## Data Management: Behov for information og support
Forskerne har bruge for en standardiseret og operationel _data pipeline_ bestående af en overskuelig _informationsportal_ med direkte links til _redskaber_ og _support_ for hvert skridt:
___
`PLAN` → `GENERATE` → `ANALYZE` → `MAKE AVAILABLE` → `PRESERVE` → `REPORT`
___
Hvor hvert skridt kan dekomponeres i mere specifikke skridt:
___
`PLAN`
↓
`define project data` → `assess data retention` → `plan data managment`
`GENERATE`
↓
`find relevant data` → `generate data` → `processs data` → `document data management`
`MAKE AVAILABLE`
↓
`compile datasets` → `publish datasets` → `safeguard data` → `display datasets`
`PRESERVE`
↓
`longterm storage` → `data appraisal` → `archive data`
`REPORT`
↓
`reporting`
___
Hvert skridt skal associeres med et eller flere redskaber, fx. `MAKE AVAILABLE` [Zenodo](https://zenodo.org/) og [Figshare](https://figshare.com/) samt specifik support enhed/person som forskerne har adgang til (e.g., AUL eller CHCAA for Arts).
### Løsningsforslag og eksempler
AUs web resource https://medarbejdere.au.dk/research-data-management/ har nogle elementer, men mangler intuitiv adgang og intergration af services på institutionsniveau samt giver en oplevelse af, at det er forskerens eget ansvar. Fx. har forskere i princippet adgang til flere af de nedenstående reskaber, men det er op til det enkelte projekt at indkøbe licens og intergrere dem/deres API'er i projektets data pipeline.
1. __Web content development og optimering af UI/UX:__
* Navigation skal være intuitiv (det er den delvist), undgå dybde og kun have relevante links
* Læsning skal minimeres og søgning være overskuelig
* Godt eksempel: Berkeley Research Data Management team: https://researchdata.berkeley.edu/home
* Lidt mindre godt, men stadig fint (samt en blog): https://researchdata.ox.ac.uk/
* for begge eksemple gælder, at de fokuserer på at tilbyde services _til_ forskeren
2. __Adgang til og intergration af redskaber__
* Løsninger til storage og arkivering af heterogene data, der kan dække samtlige dataklassifikationsniveauer. One-size-fits-all er sjældent en god løsning.
* Integration af DMPonline (og videreudvikling af skabeloner til DMPonline) eller mere omfattende løsninger, e.g., DSW/Data Stewardship Wizard https://ds-wizard.org/
* Adgang til/intergration af online data repositorier som Zenodo og Figshare.
* Adgang til GitHub/GitLab organisation og pro til deling af kode, projektstyring af data pipeline, og intergration med data repositorier.
3. __Differentieret kompetenceudvikling og adgang til support__
* Kompetenceudvikling skal fokuseres på unge forskere, der er ved at skabe deres karriere
* Etablerede forskere skal have ekstra support for at facilitere og kvalitetssikre deres brug af redskaber
4. __Stategisk udvikling af forsknings data management og storage med fokus på automatisering__
* Blandt support og RDM specialister på AU bør man fokusere på strategisk udvikling af automatiske løsninger (_automated data management tools_), heriblandt
* Indsamling af lokale/AU use cases og løsninger
* Test af tilgængelige services (e.g., DBaaS hos AWS og Azure, Science Data) og (FAIR) data management redskaber, der kan automatiseres (e.g., DCAT ontologi).
* Videreudvikling af data manamgement redskaber til fx. domænespecifikke områder .
## Data Management: Oplevelse af information og support
På nuværende tidspunkt er AUs [Data management](https://medarbejdere.au.dk/research-data-management/) website uoverskuelig, kræver mange klik og mangler direkte adgang til redskaber og operationelle standarder. I nogle tilfælde opregnes løsninger (fx. ved data klassifikation under GDPR), men er ikke udtømmende for de behov en forsker måtte have. `Use Case` En forsker vil lagre og FAIRificere 10TB (højdimensionelle) mediedata og skal derfor gøre to ting: a) "Kontakt den lokale IT-support" ang. storage og b) implementere en løsning baseret på https://www.howtofair.dk/what-is-fair/. Forskeren kontakter IT-support og bliver opfordret til at anonymisere data for at komme uden om manglede storageløsninger til store ustrukturerede persondata, og henvises derfor til dette dokument https://medarbejdere.au.dk/fileadmin/informationssikkerhed/docs/Anonymiseringsteknikker.pdf. Dokumentet viser sig imidlertid at være beregnet til to-dimensionelle strukturerede data! For den operationelle del af FAIRificering bidrager howtofair.dk kun gennem opstilling af lister over filformater, licenser, og ontologier, der ligeledes er tilgængelige via Wikipedia (i nogle tilfælde henvises der til Wikipedia). Forskeren efterlades med to muligheder __abort__ projektet eller __ignore__ data management.
## Hverdagspraksis ift information og support
* For flertallet af forskere på Arts står det efterhånden klart, at data management (& storage) bør indgå i deres forskningspraksis, men mange opgiver (_ignore_) i mødet med uoverskuelige krav og manglende løsninger. I nogle tilfælde får det forskere til at stoppe (_abort_) et planlagt forskningsprojekt eller omformulere projektdata til data, der er nemmere at håndtere, men også mindre relevante.
* Forskere, der søger EU midler er mere bevidste om nødvendigheden af en data management plan og i nogle tilfælde FAIR principperne. Disse forskere beder om praktisk support til disse services i forbindelse med ansøgninger pg afrapportering.
* En voksende mængde forskere er ved at have store nok data til at bede om support til (udvikling af) databaser og håndtering af deres data management pipeline.
* Flertallet af forskere, der kender til FAIR, oplever principperne som abstrakte og support/development efterlyser operationelle standarder.
:::info
__TERMINOLOGY__
__Data pipeline__: En serie af skridt fra establiering af datasæt til arkivering af data.
:::