'Samen aan de Slag' tweedaagse 17 en 18 januari, Utrecht

Onderzoeksondersteuners en onderzoekers van acht hbo-instellingen delen in verdiepende workshops de inzichten die ze hebben opgedaan in hun respectievelijke pilot-projecten met DCC-PO en SURF.


Concreet toepasbaar

In alle workshops staat de toepasbaarheid van de inzichten voor jou als onderzoeksondersteuner, onderzoekscoördinator of beleidsmaker centraal. Samen met de workshopleiders ga jij met collega's aan de slag om de bevindingen van de desbetreffende pilot te vertalen naar onderzoek binnen jullie organisatie(s).

Acht workshops en wat je ervan kunt verwachten

Per dag wordt in de ochtend en de middag hetzelfde programma aangeboden. Alle workshops zijn praktisch van opzet en duren twee uur. Per dag kun je dus twee workshops volgen. Uitzondering is de workshop over LLaMA2 want die duurt vier uur en beslaat de ochtend en de middagsessie.

Iedereen actief in het hbo is welkom

De 'Samen aan de slag-dagen' zijn bedoeld voor iedereen werkzaam in het praktijkgericht onderzoek. Dus ook collega's werkzaam bij niet DCC-PO leden zijn van harte welkom. De tweedaagse is gericht op onderzoeksondersteuners zoals data stewards, informatiemanagers, en onderzoekscoördinatoren van onder andere de SPRONG-programma's.

Deelname is kostenloos maar beperkt; dus...

In twee dagen tijd bieden we in totaal 15 workshops aan met elk maximaal 20 deelnemers.
Voor inschrijving geldt: vol = vol. Overige geïnteresseerden in een specifieke workshop komen in volgorde van aanmelding op de wachtlijst. Uiteraard informeren we je daarover.
Maar wees slim, klik op de onderstaande aanmeldknop en meld je vandaag nog aan!

Samen aan de Slag dagen
DDC-PO & SURF
Utrecht, 17 + 18 januari

Meld je snel aan want de workshops hebben beperkt plaats

Programma

Woensdag 17 januari
  • Metadate en meer: wat een soepblik je kan leren
    HAS Green Academy
  • Van data tot documentatie: een stap-voor-stap workshop
    Hanze Hogeschool
  • Werken aan een veilig datalandschap: creëer je eigen dataflow
    Hogeschool van Amsterdam
  • LLaMA2 en andere foundation models binnen SURF Research Cloud*
    Hogeschool Utrecht
    * Duurt 4 uur maar loopt parallel met het overige programma
Donderdag 18 januari
  • Leer je eigen documenten bevragen met generatieve AI 
    Hogeschool Rotterdam
  • De fascinerende wereld van sensoren in onderzoek
    HAS Green Academy
  • Open science made easy: snel en verantwoord data publiceren
    HZ
  • Deponeren van data bij DANS Data Stations en 4TU: Workflow, tools en data stewardship
    Haagse Hogeschool

Toelichting workshops

Woensdag 17 januari

Metadata en meer:
Wat een soepblik je kan leren (HAS)

Hoe slim en georganiseerd je ook bent, zonder etiket koop je mogelijk kattenvoer in plaats van kippensoep!

We duiken daarom actief in de wereld van metadata met deze interactieve workshop; ontworpen om je praktische vaardigheden te laten ontwikkelen en meteen toe te passen op je eigen projecten. Je gaat metadata doorgronden én je leert ook daadwerkelijk metadata te implementeren, afgestemd op de specifieke eisen van projectmanagement, onderzoek en ondersteuning.

Deze workshop is zo opgezet dat je naar huis gaat met een hands-on actieplan, klaar om het gebruik van metadata naadloos te integreren in je eigen werk.

Van data tot documentatie
Een stap-voor-stap workshop (Hanze)

Ontdek de essentie van goede datadocumentatie en leer hoe je onderzoeksdata van jouw hogeschool optimaal inzichtelijk en bruikbaar maakt voor anderen. Deze interactieve workshop biedt praktische begeleiding en werkwijzen voor datadocumentatie.

We beginnen de workshop met het bespreken van de diverse belangrijke elementen van een goed gedocumenteerde dataset. Vervolgens gaan we praktisch aan de slag: we creëren zelf een dataset op basis van een korte vragenlijst, coderen deze en voegen documentatie toe om de data klaar te maken voor publicatie. Hierbij komen onder andere readme-files, metadatering, standaardcodering, codeboeken en supplementaire materialen aan bod, met als doel de dataset zo goed mogelijk (her)bruikbaar te maken.

Werken aan een veilig datalandschap:
Creëer je eigen dataflow (HvA)

In veel onderzoeken wordt samengewerkt met externe partners. Als er tegelijk met (bijzondere) persoonsgegeven wordt gewerkt dan is veilige gegevensuitwisseling cruciaal. Maar hoe realiseren we een duurzame en veilige uitwisseling van deze gevoelige gegevens?
 
In deze interactieve workshop demonstreren we de ontwikkeling van de datastroom van externe partners naar de HvA. Als oplossing hebben we, in samenwerking met SURF, gekozen voor Research Drive en Research Cloud. Daarmee hebben we een virtuele omgeving gecreëerd die essentieel is voor het verwerken en analyseren van data en het opstellen van rapportages.
 
In het eerste deel van de workshop onthullen we stap voor stap hoe we tot deze oplossing zijn gekomen en demonstreren we het proces dat nodig was om verschillende partners toegang te verlenen tot deze systemen. In het tweede deel ga je als deelnemer zelf aan de slag. Daarbij werk aan je eigen case om een papieren workflow op te zetten.

LLaMA2 en andere foundation models
binnen SURF Research Cloud (HU)

Het Lectoraat AI van de Hogeschool Utrecht heeft het LLaMA2 Large Language Model beschikbaar gemaakt binnen de SURF Research Cloud. Daarmee bieden we onderzoekers een toegankelijke experimentele omgeving om Large Language Models, en in het verlengde ook andere Foundation Models, te verkennen. De set-up omvat een reeks laagdrempelige voorbeeldscripts met de mogelijkheid om dieper op de code in te duiken, voor het gebruik en finetunen van het model op basis van je eigen dataset.

Na een korte introductie en set-up in de SURF Research Cloud leer je een workshop LLaMA2 gebruiken en aan te passen. Dat doe je in een gebruiksvriendelijke omgeving die overeen komt met je gebruikelijke programmeeromgeving (IDE). Enige kennis van Python is wel vereist.Je hoeft geen expert te zijn maar een IF statement moet je niet onbekend voorkomen.

De workshop focust vooral op het gebruik van de HuggingFace-infrastructuur voor het efficiënt inzetten van LLaMA2-modellen (en in het verlengde andere foundation models) binnen de SURF Research Cloud. Aan het einde van de workshop vertrek je met draaiende scripts en een ingerichte programmeeromgeving waar je op door kunt bouwen.

Let op: deze workshop duur 2 x 2 uur en laat dus geen ruimte om op de woensdag een andere workshop te volgen.

Donderdag 18 januari

Leer je eigen documenten bevragen
met generatieve AI (Hogeschool Rotterdam)

Veel docentonderzoekers en ontwerpers van hoger onderwijs voelen de noodzaak om aan de slag te gaan met publiek toegankelijke chatbots zoals ChatGPT, Copliot of Bard. Maar hands-on kennis ontbreekt vaak en een “cursus prompt engineering” geeft slechts zeer beperkt inzicht in hoe je Chatbots veilig, effectief en verantwoord kunt benutten voor het doen van toegepast onderzoek.

Deze workshop is gericht op data stewards, onderzoekscoördinatoren en ieder ander die graag inzicht wil over wat nodig is  – de randvoorwaarden + standaarden – om veilig en verantwoord aan de slag te gaan met chatbots.

Tegelijk is het een open source demo om het brede publiek deelgenoot te maken van state-of-the-art AI-techniologie die je zelf kunt uitproberen op je eigen tekst. Daarbij maken we gebruik van Research Drive, JupyterHub & SRAM, de public clouddienst van Microsoft (Azure) en een populaire AI-techniek genaamd RAG die het mogelijk maakt Chatbots te gebruiken om je eigen documenten te bevragen.

De fascinerende wereld van
sensoren in onderzoek (HAS)

Met behulp van sensoren kun je zelf eenvoudig data verzamelen voor onderzoek en citizen science projecten. In deze workshop configureer je zelf een draadloze sensor en ontdekt hands-on op de kracht van The Things Network voor het delen van informatie. Tegelijk visualiseer je de sensormetingen in een dashboard.

Met de opgedane kennis ben je niet alleen in staat om zelf innovatieve toepassingen met sensoren te bedenken maar deze ook zelf te realiseren. Deze workshop laat goed zien hoe SURF onderzoekers met raad en daad kan helpen bij het verzamelen van remote data. Om die reden zal er ook een specialist van SURF bij de workshop aanwezig zijn. 

Open science made easy
Snel en verantwoord data publiceren (HZ)

In deze workshop leer je hoe je met enkele algemene voorbereidingsstappen en gebruik van Sharekit op eenvoudige wijze data kan gaan delen. We maken samen een DMP en een data package met read-me en publiceren vervolgens deze dataset op Sharekit. Iedere deelnemer doorloopt deze stappen en je bent van harte uitgenodigd om hiervoor zelf een eigen of geleende dataset mee te nemen. Lukt jou dat niet dan is er een standaard dataset beschikbaar.

Met deze kennis kan je zelf als onderzoeker gelijk aan de slag. Maar ook kan je, door de stappen zelf te hebben doorlopen, als onderzoeksondersteuner/data-steward beter onderzoekers adviseren wanneer zij voor hun onderzoek ook data willen of moeten publiceren. Het proces is lean and mean en geschikt voor alle hogescholen en onderzoeksgroepen die een betaalbare en gebruiksvriendelijke open science mogelijkheid willen aanbieden.

Deponeren van data bij DANS Data Stations en 4TU:
Workflow, tools en data stewardship (Haagse Hogeschool)

Leer hoe je onderzoekers actief kunt ondersteunen bij het publiceren van hun data in DANS Data Stations en 4TU.ResearchData. Verdiep je in het effectief inrichten van de interne workflow binnen je hogeschool. Ontdek welke tools en hulpmiddelen je hiervoor kunt inzetten. In onze interactieve workshop demonstreren we praktische oplossingen en maken we je bekend met handige tools.

In het eerste deel van de workshop vertellen we kort over onze workflow voor het publiceren van data in DANS Data Stations. Vervolgens gaan we aan de slag met een voorbeeld van een dataset, metadata en datadocumentatie. Aan de hand van een checklist beoordelen we of de dataset voldoet aan de eisen van DANS. Hiervoor zullen we een reëel gesprek met een onderzoeker simuleren.

Het tweede deel wordt verzorgd door een expert van 4TU.ResearchData. Hij gaat ons vertellen wat een datasteward moet weten om een onderzoeker goed te kunnen ondersteunen bij het deponeren van data. Op basis van echte datasets laat de expert zien welke fouten het meest worden gemaakt, in de datasets en de metadata, en hoe je deze fouten kan voorkomen.

Samen aan de Slag dagen
DDC-PO & SURF
Utrecht, 17 + 18 januari

Meld je snel aan want de workshops hebben beperkt plaats

Reacties

Wil je iets kwijt, heb je een opmerking of wil je iets delen over dit bericht? Voel je vrij om een reactie achter te laten of in discussie te gaan met anderen!

Nog geen reacties, ben jij de eerste?

Plaats jouw reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *