In gesprek met de enige ‘research data’specialist die ons land rijk is: Rob Grim van de Universiteit van Tilburg. Wat databeheer betreft zijn er bij de Nederlandse Universiteiten (nog) niet veel specialisten. In Engeland (JISC – datalibrarian) en Canada (Research data – data steward) zijn ze al wat verder en is er zelfs al over geschreven.
Opvallend is dat het College van Bestuur van de UvT wel de noodzaak inzag om een specialist aan te stellen, maar vervolgens niet keihard wil (kan) verordonneren dat alle onderzoekers hun data efficiënt moeten archiveren.
Dat is denk ik ook het moeilijkste in deze positie en dat herken ik ook wel vanuit onze situatie: je moet een beetje aftasten en zelf een tweesporenbeleid voeren: zowel naar het hogere management als naar de onderzoekers toe moet je blijven argumenteren. Het zou mooi zijn als er metadataprocessen als boundary objecten kunnen fungeren, een punt waar je eerst doorheen moet voordat je verder kunt met het onderzoek.
Data management is een uiting van gedeeld belang: door opslag is hergebruik mogelijk en dat betekent ook het efficiënt omgaan met middelen. Niet altijd is het artikel meer de enige bron van wetenschappelijke kennis, er zijn gegevens die zich niet in een artikel laten vangen, zoals 3d simulaties, filmpjes etc.
Tijd is een belangrijk element. Als je gebruik kunt maken van reeds opgeslagen gegevens kun je daarmee de doorlooptijd van je eigen onderzoek bekorten. Metadata is heel veel werk, wordt gezegd., ja post hoc, als je t van te voren inricht bij opzet kun je meteen metadateren meenemen tijdens de workflow. Rob pleit er dan ook voor om te zoeken naar software-matige oplossingen die het extra werk wat gestructureerd data-archiveren vraagt, kan reduceren tot een minimum “max 5 minuten”. Zo zou de data uit instrumenten automatisch moeten kunnen worden meegenomen en dan kun je ook bepalen wat de kenmerkenzijn waarop nog gemetadateert moet worden.
Ook zou je voor onderzoekers een open-standaarden-omgeving moeten inrichten , secured data area waarbij alle tools en voorzieningen geleverd worden, zodat onderzoeker niet verleid worden gegevens ergens anders opslaan, waar je dus ook remote kan werken.
Het is nog niet haalbaar om een datamanagementplan op te stellen voor elk onderzoek. De aanpak die nu gevolgd wordt is er een uitgaande van de bestaande problemen van de onderzoekers (bijv. opslag- en/of verwerkingscapaciteit). Je aanpak moet aansluiten bij het werk van de onderzoekers en wat zij de belangrijkste bestanden vinden om te documenteren Je begint bij een of meerdere sleutelfiguren, en dan kun je in een groepsschets de gaten laten zien die er nog zijn. Als research data specialist kun jij mede zorgdragen voor de juiste technologische structuur en het inrichting van de werkprocessen en uiteindelijk in het doorzoekbaar maken van de data.
Op de UvT wordt gebruik gemaakt van de DDI als standaard model voor dataopslag: het is een model uit de sociale wetenschappen, gebaseerd op de levenscyclus van een statistisch gegeven (geboorte, groei en ontwikkeling). En als je goede metadata hebt, en de ruis is uit je instrumenten dan heb je ook zicht op de kwaliteit van de data als geheel. .
Tips van de expert:
- Aansluiten bij onderzoekers
- Technische structuur en werkprocessen inrichten
- Software/techniek is niet het probleem, wel het vinden van de goede mensen die iets (templates, e-workflows, boundaries) voor je kunnen maken
- Metadateren als onderdeel van de workflow
- Secured data area, zodat er geen noodzaak is om (deel)gegevens op meerdere plaatsen vast te leggen
- Blijven argumenteren, niet alles hoeft meteen
- Templates kunnen overzicht geven en ook de gaten in het geheel tonen
- Resources beschrijven en terbeschikking stellen
- ODF
met dank aan Rob Grim en collega's van Universiteit van Tilburg.
Weblog over mijn werk als informatiespecialist bij het Nederlands Instituut voor Ecologie (NIOO-KNAW).
21 apr 2009
Research Data Specialist
Abonneren op:
Reacties posten (Atom)
Geen opmerkingen:
Een reactie posten