Per Kraulis menar att man kan nalkas problemet på två sätt.
– Det ena är att forskningen producerar allt större mängder data och forskarna rent akut behöver någonstans att lägga materialet, säger han.
Det andra problemet är att data som genereras av forskarna måste kunna vara möjliga att hitta.
– Om en forskare gjort en analys och kommit fram till ett dataset så kräver många vetenskapliga tidskrifter att det är allmänt tillgängligt. Problemet är att det inte finns några generella lösningar utan det uppstår förvirring kring hur forskaren ska göra, var datan ska ligga och hur länge det är en hållbar lösning.
Nu försöker varje forskare lösa det på egen hand.
– Det är själva tusan att universiteten inte har säkra system med uppbackning som forskarna kan lägga sina data på. Jag känner till forskare som har en bunt terabytediskar man köpt på Dustin som de har grejerna på. Men när doktoranden eller postdoken flyttar är det ingen som har en aning om var datan finns.
Nationell lösning
Frågan är varför det ser ut som det gör.
– Jag tror att det beror på att datoranvändning i vetenskapen har utvecklats på ett sätt som tagit universiteten och forskarna på sängen, de har inte förstått vad som sker och har inte insett problemets vidd.
Per Kraulis förespråkar en gemensam nationell lösning.
– Grunden måste vara att det finns en rent fysisk lagringsyta där forskarna kan lägga sina data. Det finns uppenbara stordriftsfördelar, det blir mycket billigare än att varje lärosäte löser frågan på egen hand och det blir enklare att dela data.
Leif Johansson vid Sunet, Swedish university computer network, menar att frågan är komplicerad, inte minst hur finansieringen ska gå till. Frågan diskuteras inom ITCF-nätverket som samlar alla IT-chefer på lärosätena.
– Den modell Sunet just nu tittar på tillsammans med ITCF är lagring distribuerad på många ställen och att använda lärosätenas befintliga datahallar, säger Leif Johansson.