”Vi visar att “big data” har stor potential i mjölkproduktionen”

  • I Notis
  • 29 juni, 2018
  • 50 Visningar
”Vi visar att “big data” har stor potential i mjölkproduktionen”

Den snabba automatiseringen av mjölkproduktionen möjliggör allt större besättningar. Samtidigt som skötseltiden per ko blir kortare ställs stora krav på tillsyn och hälsa. Lösningen på den ekvationen kan mycket väl bli ett sofistikerat system där enskilda djurs beteenden och samspel med andra följs av övervakningskameror i ladugården, det menar Oleksiy Guzhva från SLU.

När lantbrukare hade 20 till 30 kor kunde de ha god koll på varje individs hälsa och kynne. I modern mjölkproduktion med lösgående djur i allt större besättningar har arbetet effektiviseras genom mer mekanisering och automatisering, till exempel av mjölkning och utfodring. Skötseltiden för varje enskilt djur blir kortare och det blir svårare att hålla ögonen på alla kor, samtidigt som det ställs stora krav på tillsyn av djuren.

“Virtuellt koöga”

Redan idag finns flera tekniska hjälpmedel som gör det möjligt att förbättra övervakningen av djurs hälsa, fruktsamhet och produktion i lösdriftsstallar. Med hjälp av sensorer, kameror och bildanalys går det till exempel att upptäcka juversjukdom och hälta, bedöma hull hos kor, samt se var djuren befinner sig i stallet. Det också möjligt att registrera vissa beteenden på individnivå hos nötkreatur.

Det Oleksiy Guzhva har gjort är att utveckla teknologi och verktyg som kan användas för att studera kors beteende, rörelser, positioner och samspel med andra individer. Inom detta område ligger han och hans SLU-kollegor i framkant.

– Det finns några studier som visar vad enskilda kor gör, men ingen annan har lyckats fånga upp samspelet mellan olika kor, och kvaliteten på detta, säger Oleksiy Guzhva. Vi visar att “big data” har stor potential i mjölkproduktionen. Med bildanalysteknologi kan man fånga upp förändringar i djurgruppens beteende, som signaler på djurens välbefinnande och hälsa, och därmed åtgärda problem tidigt.

En matematisk beskrivning av en ko

Det första målet var att undersöka om det var möjligt att i en videofilm automatiskt definiera vad som är en ko i hennes stallmiljö samt bestämma hennes position. För att klara detta utvecklades en ny matematisk modell som beskriver en ko som ett geometriskt objekt. Med den nya modellen, som förbättrades genom maskininlärning, visade det sig vara möjligt att studera olika interaktioner mellan korna. Den automatiska utrustningen fångade upp nästan 85 procent av de interaktioner som en erfaren observatör upptäckte.

Arbetet har tydliga paralleller med den utveckling av kameror och ansiktsigenkänningsteknik som görs för övervakning av människor i stadsmiljöer.

– I princip är det samma problematik, men det vi har gjort är betydligt mer avancerat, säger Oleksiy Guzhva. Vår utrustning kan följa djuren automatiskt, men också registrera hur de beter sig mot varandra, både snälla och elaka saker.

Fungerar bland spindelnät i lagårdsmiljö

Avhandlingen innehåller fördjupningsstudier inom flera områden. En sådan visar hur man kan spåra och identifiera enskilda kor med videokameror och datamarkörer (till exempel selektionsgrindar eller mjölkningsrobotar) som redan finns i ladugårdens datasystem, det vill säga utan att sätta fast några sensorer på korna. Systemet fungerade trots att ljuset varierade under året och att det fanns spindelnät i taket som delvis skymde kameralinsen. Studien visade vidare att kor kunde spåras i över 20 minuter, i situationer med max 10 kor.

Stor nytta i forskningen

Fortfarande återstår mycket utvecklingsarbete innan de övervakningssystem forskarna skisserar på kan komma i praktisk drift i ladugårdarna. Tekniken kan dock utnyttjas ganska snart i forskningssammanhang. För att förstå hur kor fungerar på individnivå och i grupp görs idag manuella beteendestudier som är mycket tidskrävande och därmed kostsamma.

I avhandlingen beskrivs en teknik som gör det möjligt att med hög precision sovra fram intressant videomaterial för beteendestudier. Bland annat gick det att sortera bort hälften av de inspelade videosekvenserna, utan att förlora mer än 4 procent av de intressanta bildsekvenserna. Detta effektiviserar analyserna och sparar mycket forskningstid.

 

 

Läs mer:

Länk till avhandlingen (pdf)
https://pub.epsilon.slu.se/15436/

Länk till inspelad video från disputationen (börjar efter ca 17 minuter – spola fram dit)
http://tcs.video.slu.se/tcs/?id=5ac5a81b-80b7-416a-a9d9-cd62f5e9e46a