Czemu wilk tak wyje w księżycową noc? Odpowie nam sztuczna inteligencja

Fotopułapki, bioakustyka, satelity, modele matematyczne – to wszystko już teraz pomaga określać zagrożenia i planować zadania ochronne. Natura zyskała w tym potężnego sojusznika - technolog, która patrzy, słucha i analizuje. 

Jak sztuczna inteligencja pomaga chronić naturę?

Majestatyczne słonie afrykańskie wędrują po gęstych lasach deszczowych Parku Narodowego Lopé w Gabonie w poszukiwaniu dojrzałych owoców bananowca, mango czy chlebowca. Te dominują w ich diecie, ale korzyść nie leży tylko po stronie ssaków. Wędrujące słonie, nazywane niekiedy ogrodnikami lasu, rozprzestrzeniają nasiona owoców. 

Jednak tym największym zwierzętom lądowym na Ziemi, coraz trudniej znaleźć dojrzałe owoce, ze względu na zmiany klimatyczne. A wraz ze wzrostem populacji ludzkiej i przekształcaniem gruntów pod uprawę, tracą też swoje siedliska. Słonie potrzebują dużo miejsca, więc pozbawianie ich naturalnego środowiska nie tylko utrudnia im znalezienie pożywienia i wody, lecz także naraża na kontakt z ludźmi, w tym z kłusownikami. Handel kością słoniową to krwawy, choć wciąż intraty biznes. Fakt, rządy niektórych krajów, poczyniły ogromne postępy, zamykając wiele rynków handlu kością słoniową na swoim terytorium, jednak proceder nadal kwitnie. Dodatkowo, załamanie rynku turystycznego sprawiło, że państwa np: Gabon, Zambia, Malawi, czy Namibia, miały mniej dochodów, a co za tym idzie musiano zmniejszyć środki na rzecz działań ochronnych słoni. 

Wszystko to składa się na koszmarny obraz. Populacja afrykańskich słoni leśnych w ciągu ostatnich 31 lat spadła o 86 proc. Według danych WWF dziennie ginie nawet 55 osobników. To sprawia, że są oficjalnie uznane za ​​gatunek krytycznie zagrożony wyginięciem. Utrata tych majestatycznych olbrzymów jest niestety nieuchronna, a jej konsekwencje poważniejsze niż nam się wydaje. Jeśli słonie wyginą lasy deszczowe środkowej i zachodniej Afryki, czyli drugie co do wielkości po Amazonii lasy deszczowe na Ziemi, stracą od sześciu do dziewięciu procent swojej zdolności do wychwytywania dwutlenku węgla z atmosfery. To pogłębi globalne ocieplenie. 

Leśny słoń afrykański, Sheihu Salawatia via Wikimedia Commons

Naturze może pomóc technologia, a dokładnie sztuczna inteligencja, która coraz częściej znajduje zastosowanie w działaniach ekologów i działaczy na rzecz ochrony przyrody, pracujących nawet w najbardziej odległych miejscach na świecie.

Raport Wildlabs.net wykazał, że narzędzia AI mają największy potencjał do rozwoju w dziedzinie ochrony przyrody. Analizują ogromne liczby zdjęć satelitarnych i tych z fotopułapek, a także setki godzin nagrań z mikrofonów zainstalowanych w lasach.

W afrykańskim buszu

Na zdjęciu dobrze widoczna jest zarysowana okrągła głowa osadzona na futrzanym korpusie. Jedną kończyną trzyma gałąź, drugą podpiera się o ziemię. Głęboko osadzone oczy przenikliwie patrzą w soczewkę aparatu. Szympans sfotografowany przez fotopułapkę to jeden z 400 gatunków ssaków zamieszkujących Park Narodowy Lopé. Małpa, ale także inne mniejsze i większe zwierzęta są na bieżąco fotografowane. Taka dokumentacja ma służyć ochronie mieszkańców parku. 

Szympans Mbaza
Szympans sfotografowany przez kamerę-pułapkę w Parku Narodowym Lopé w Gabonie, fot. zdjęcie udostępnione przez ANPN/Panthera

Fotopułapki pozwalają analizować zachowanie zwierząt i szacować populację, a także walczyć z kłusownictwem czy nielegalną wycinką drzew, ale ich wykorzystanie stanowiło dotychczas spore wyzwanie. Jeszcze do niedawna skuteczność fotopułapek utrudniały problemy techniczne. Brak stałego łącza internetu oznaczał, że nie można było przesyłać z nich zdjęć do analizy w czasie rzeczywistym, a ręczna analiza danych trwała tygodniami.

– Pracując przy projekcie dotyczącym dokarmiania dzikich zwierząt w Bieszczadach, fotopułapka robiła zdjęcie co 5 minut. Na koniec projektu mieliśmy ponad 6 milionów zdjęć do przeanalizowania – mówi prof. Nuria Selva, ekolożka z Instytutu Ochrony Przyrody PAN.

– Dotychczas takich analiz dokonywaliśmy ręcznie. To była bardzo czasochłonna praca, bo wiele zdjęć zebranych w fotopułapce jest pustych, a my i tak musieliśmy je przeglądać.

Zgoła inaczej wygląda taka analiza, gdy naukowcy do pomocy mają narzędzia sztucznej inteligencji, które odciążają człowieka z pracochłonnego przeglądania i klasyfikowania zdjęć. Twórcami takich rozwiązań jest polski startup Appsilon. Ich rozwiązania dla ekologów znajdują zastosowanie na przykład w Gabonie, Kamerunie i Kenii.  

– Nasza aplikacja Mbaza potrafi rozpoznać gatunki zarejestrowane na 30 tys. zdjęciach w ciągu 8 godzin. Dla porównania człowiek do analizy tego samego zbioru potrzebuje około miesiąca – mówi dr Jędrzej Świeżewski, head of AI w Appsilon. – Choć 8 godzin to nadal długo, bo na mocnych maszynach z akceleratorami GPU, można byłoby to zrobić szybciej, ważny jest w tej kwestii kontekst – dodaje. 

Skrócenie analizy do ledwie 8 godzin sprawia, że ekolodzy mogą przeanalizować dane na miejscu, w lesie. Mówiąc o parku narodowym w Gabonie, mówimy o gęstej, tropikalnej dżungli, w której nie ma co szukać dostępu do internetu. Także sprzęt, na którym analizowane są zdjęcia często nie jest najlepszej jakości. Mając na uwadze warunki, w jakich pracują ekolodzy, Mbaza działa na zwykłym laptopie, bez dostępu do internetu. Jest to bardzo istotne w sytuacjach, kiedy wymagana jest szybka reakcja. Jednym z przykładów, o którym opowiadali Świeżewskiemu pracownicy parku narodowego w Gabonie, była choroba skórna rozprzestrzeniająca się wśród populacji goryli, zamieszkujących lasy tropikalne środkowo-zachodniej Afryki. 

– Była to swego rodzaju lokalna epidemia, a do zadania strażników należało natychmiastowe wychwycenie i rozpoznanie chorych osobników. O tyle prościej było ją rozpoznać na podstawie zdjęć, ponieważ dawała wizualne objawy. Goryl chory był widocznie chory, miał zmiany na skórze i w związku z tym nasza aplikacja została użyta do tego, żeby bardzo szybko wyłowić z morza różnych zdjęć te, na których są goryle, a następnie eksperci, którzy znali się na rozpoznawaniu tej choroby mogli zrozumieć jak ona się rozprzestrzenia w czasie i zareagować odpowiednio, powstrzymując rozwój epidemii – mówi dr Świeżewski.

Aplikacja klasyfikuje konkretne gatunki zwierząt, wrzucając ich zdjęcia do przypisanych folderów. Struktura folderów odpowiada lokalizacji fotopułapek, z których pochodzą zdjęcia. Model jest dostosowany do różnych ekosystemów, dlatego w zależności od potrzeb skupia się np. na rozpoznaniu wielu gatunków antylop albo małp. ​​Aplikacja działa trochę jak galeria zdjęć w telefonie komórkowym. Każde zdjęcie można zobaczyć i sprawdzić, co model na nim rozpoznał. A sztuczna inteligencja niekiedy łatwiej rozpoznaje zwierzę niż ludzkie oko.

– Modele wyszukują wizualnych wzorców na zdjęciu, czyli takiego układu pikseli, który reprezentuje pewną cechę wizualną. To może być kształt głowy albo wzór na umaszczeniu, jak na przykład cętki. Zwierzę wcale nie musi być widoczne w całości, aby model je rozpoznał – mówi dr Świeżewski.

Do takiej sytuacji doszło w kongijskim lesie, gdzie na zdjęciu, na którym ludzkie oko nie widziało nic, model rozpoznał zwierzę. – Zdjęcie było czarne, a w lewym dolnym rogu było szare pole i model rozpoznał na tym zdjęciu słonia. Konia z rzędem dla człowieka, który tego słonia tam znajdzie – śmieje się Świeżewski. 

Jak badacze sprawdzili, że tam rzeczywiście był słoń i model się nie pomylił? Zdjęcia z fotopułapek często są wykonywane w serii, więc sprawdzili to, które zostało wykonane kilka sekund później. Na nim już widać dokładnie, że ten szary punkt na zdjęciu to czoło słonia, wchodzącego w kadr fotopułapki. Okazuje się, że ten kawałek czoła wystarczył modelowi, żeby rozpoznać, że jest to słoń. 

– To jest wielka rewolucja w ochronie zagrożonych gatunków – zaznacza Rafał Rzepkowski, specjalista ds. ochrony gatunków w WWF Polska.

A teraz ta rewolucja ma przyjść także do Polski, a konkretnie do polskich Tatr. 

I wśród tatrzańskich skał

Największą na świecie bazą danych z fotopułapek zasilaną przez sztuczną inteligencję posiada - co nie powinno zaskakiwać - Google, który realizuje projekt Google Wildlife Insight Initiative. Powstałe w 2019 roku darmowe narzędzie umożliwia zbieranie w jednym miejscu danych o gatunkach zwierząt.

Przykład z Australii pokazał, że platforma Google jest bardzo wydajna, bo przetwarza zdjęcia od pięciu do dziesięciu razy szybciej niż człowiek. Choć to największa baza danych monitorująca zagrożone gatunki na świecie, ma swoje ograniczenia. 

Chris Sandbrook, wykładowca geografii w Cambridge w rozmowie z serwisem Reset Digital for Good, który zajmuje się problemem monitoringu fotopułapkowego, przez lata słyszał mrożące krew w żyłach historie od kolegów w terenie, w tym dotyczące fotopułapek wykorzystywanych przez władze lokalne w celu kontroli społecznej. Sandbrook zwracając uwagę, że dostarczanie potencjalnie wrażliwych danych do sztucznej inteligencji obsługiwanej przez Google może mieć potencjalne negatywne skutki. W końcu Google to prywatna firma, której model biznesowy opiera się na zbieraniu danych. 

Wspomniana już prof. Nuria Selva zwraca uwagę, że wraz z rozwojem sztucznej inteligencji, Google Wildlife traci na znaczeniu. Coraz więcej organizacji może po prostu zbudować na własną rękę systemy identyfikacji natury. Jak tłumaczy ekolożka trenowanie modeli na mniejszych areałach sprawia, że są bardziej precyzyjne niż ogólne modele takie, jak. Google Wildlife Insight Initiative. Dlatego też prof. Selva pracuje nad projektem skupiającym się na wytrenowaniu algorytmu tak, aby rozpoznawał konkretne gatunki zwierząt w sieci lokalnej.

– To będzie pierwszy taki projekt w Polsce – mówi prof. Nuria Selva, koordynatorka projektu Biodiversa+, polegającym na zbudowaniu systemu monitoringu dzikich zwierząt poprzez integrację fotopułapek i sztucznej inteligencji. Podobny projekt działa już od niemal 3 lat w parku narodowym Doñana na południu Hiszpanii, a teraz obejmie swoim zasięgiem norweski park narodowy, dorzecze Odry po stronie Niemiec, a także polskie Tatry. Biodiversa+, w tym projekt w Polsce rusza w lutym 2024 roku, w ramach niego rozstawionych będzie około 60 fotopułapek, które będą zbierać informację o ssakach zamieszkujących tatrzański park narodowy. To właśnie tam występują najbardziej rzadkie gatunki w Polsce, jak niedźwiedź brunatny, kozica tatrzańska czy ryś euroazjatycki. 

– Wraz ze zrealizowaniem tego projektu w Polsce, Hiszpanii, Niemczech i Norwegii będziemy mieli zebrane parametry biologiczne z ważnych ekosystemów europejskich, a to już o krok bliżej do stworzenia publicznie dostępnej, stale aktualizowanej bazy danych o gatunkach ssaków, a do tego dążymy – zaznacza prof. Selva. 

Biodiversada+ dzieli się na trzy etapy. W pierwszym dochodzi do wyboru najoptymalniejszych metod i narzędzi gromadzenia danych z monitorowania różnorodności biologicznej i zarządzania nimi. Chodzi także o zautomatyzowanie gromadzenia danych terenowych.

 – Oczywiście nie da się tego zrobić całkowicie, bo ktoś musi się raz na jakiś czas przejść i pozbierać karty pamięci z fotopułapek i wymienić baterie, ale co do zasady ogranicza się pracę w terenie – tłumaczy prof. Selva. 

Fotopułapka
fot. Krasula/Shutterstock.com

Drugim etapem jest zebranie wiedzy na temat stanu, dynamiki i tendencji różnorodności biologicznej, aby walczyć z utratą różnorodności biologicznej. Na tym etapie do gry wchodzi sztuczna inteligencja, która analizuje zebrane dane, np. zdjęcia i klasyfikuje je według gatunków.

Trzeci etap to nic innego jak wykorzystanie dostępnych danych z monitoringu. Pozwalają one zbudować kompleksowy model statystyczny, który automatycznie będzie liczył różne czynniki biologiczne na terenie Europy. Ma pomagać ekologom obserwować zmiany w środowisku, dowiedzieć się, jaka jest populacji zwierząt, gdzie przebywają, jak się przemieszczają.

– Nie wiem, czy sztuczna inteligencja zaprzężona do analizy zdjęć z fotopulapek to najbardziej efektywne narzędzie. Z pewnością jest najczęściej używane – mówi prof. Nuria Selva. –  Jest ono odpowiednie nie tylko do ochrony bioróżnorodności, ale – tak jak robią to Hiszpanie – służy także w gospodarowaniu łowiectwem i parkami narodowymi. Gdy pracowałam w Białowieży, leśnicy liczyli populację jeleni w czasie rykowiska, nasłuchując ryczenia. Obliczali, że na jednego jelenia przypada 10-12 łań. Taki pomiar nie jest zbyt dokładny, dlatego takie fotobudki, których dane analizowane są przez AI automatycznie i szacują populację, mogłyby wesprzeć lasów i parków narodowych w lepszym i dokładniejszym zarządzaniu ekosystemami – dodaje prof. Selva. 

Ani szkiełko, ani ludzkie oko

Lasy kryją w sobie dużo więcej niż wychwycić może soczewka fotopułaki. Nie wszystkie gatunki można badać za pomocą zdjęć. Nawet dobrze wyszkolony obserwator może mieć trudności z zauważeniem konkretnego zwierzęcia, chowającego się w gęstwinie roślin, szczególnie, gdy te służą za kamuflaż do ukrywania się przed wrogami. Dlatego też dane z fotopułapek nie są uniwersalnym i jedynym narzędziem do badania bioróżnorodności.

W lesie wystarczy zamknąć jednak oczy i skupiając się na dźwięku lasu, można usłyszeć ćwierkanie, cykanie, rechotanie czy bzyczenie. Rozwijająca się prężnie dziedzina znana jako bioakustyka zajmuje się właśnie nasłuchiwaniem natury, a sztuczna inteligencja wykorzystywana jest tutaj do analizy zebranych głosów i identyfikacji gatunków zwierząt po dźwiękach. 

Potencjalną moc bioakustyki do ochrony bioróżnorodności pokazali naukowcy z Uniwersytetu w Würzburgu. W niedawno opublikowanym artykule naukowym w Nature Communications opisują projekt przeprowadzony w Ekwadorze, podczas którego zbierali informacje z mikrofonów ustawionych w 43 różnych miejscach. 

Zebrane nagrania przeanalizowała sztuczna inteligencja i zidentyfikowała zwierzęta. Nagrania pochodzące z badania uchwyciły kolibra purpurowego czy niezwykle rzadką kukułkę pasiastą. 

– To święty Graal dla ornitologów – stwierdził w rozmowie z Wired ekolog i jeden z autorów badania Jörg Müller. Tłumaczy, że wielu ornitologów spędza w Ekwadorze nawet 30 lat, aby zobaczyć tego ptaka, ale zwykle plan kończy się fiaskiem. Jego zdaniem ten przykład pokazuje zaletę rejestratorów dźwięku, które mogą zbierać informację o zwierzętach, ale im nie przeszkadzają i ich nie płoszą.

Bioakustyka oczywiście nie może w pełni zastąpić badań terenowych, jednak jest istotnym wsparciem w dostarczaniu danych, których zebranie byłoby niezwykle kosztowne i czasochłonne. W przypadku narzędzi bioakustycznych ekolodzy, podobnie jak w przypadku fotopułapek, muszą wrócić w miejsca, gdzie zostały zainstalowane, aby zabrać kartę pamięci czy wymienić baterie. Poza tym technologia może działać nieprzerwanie przez lata. 

Eddie Game, główny naukowiec z Nature Conservancy i dyrektor ds. ochrony przyrody w regionie Azji i Pacyfiku w rozmowie z Wired zauważa, że będziemy nadal uczyć się znacznie więcej na temat tego, co dźwięk może nam powiedzieć o środowisku. Porównuje bioakustykę z programem NASA Landsat, w ramach którego agencja kosmiczna udostępniała społeczności naukowej zdjęcia satelitarne, przez co doprowadziła do kluczowych badań nad zmianami klimatycznymi i szkodami spowodowanymi pożarami. 

– To radykalnie zmieniło sposób, w jaki patrzyliśmy na Ziemię. Dźwięk ma podobny potencjał – stwierdził naukowiec. 

Ziemia. Planeta zwierząt 

W ramach programu NASA Landsat od ponad 50 lat zbierane są dane z satelity, który okrąża kulę ziemską. Dane wykorzystano do wykrywania zmian w krajobrazie w czasie i mapowania wpływu działalności człowieka na środowisko. Jedna satelita zbiera nawet 900 GB danych dziennie. Jeśli miałby je analizować człowiek, byłoby to zajęcie na długie miesiące. Na szczęście także tutaj przydaje się AI. 

Technologia satelitarna jest kolejnym ważnym narzędziem do zbierania danych do ochrony bioróżnorodności obok fotobudek i rejestratorów dźwięku (bioakustyka).

– Dane o terenie, jego strukturze roślinności, dostępie do wody, ukształtowaniu. To są wszystkie podstawowe informacje, które możemy uzyskać dzięki satelitom. A wykorzystanie do ich analizy specjalnie opracowanych algorytmów może nam pomóc w wykryciu potencjalnych zagrożeń – zaznacza Rzepkowski z WWF. 

Ostatnie badania pokazują, że sztuczna inteligencja "z kosmosu" jest całkiem skuteczna na przykład w sprzątaniu plastiku z oceanu. Laboratorium Morskie w Plymouth i Uniwersytet Morza Egejskiego w artykule opublikowanym w Nature Scientific Reports pokazały, w jaki sposób obrazy satelitarne o wysokiej rozdzielczości mogą być wykorzystane do wykrywania w morzach i oceanach makroplastików, czyli tworzyw sztucznych o średnicy większej niż 5 mm. 

Zespół wykorzystał zdjęcia z satelity Sentinel-2 Europejskiej Agencji Kosmicznej, który co 5 dni dostarcza obrazy dużych obszarów Ziemi. Naukowcy, aby skutecznie identyfikować dryfujące łachy plastiku opracowali model oparty na sztucznej inteligencji.

Do wyszkolenia algorytmu najpierw zebrano plastikowe śmieci, takie jak butelki, sieci rybackie i plastikowe torby, a następnie załadowano je na platformy, które wypłynęły w morze u wybrzeży Lesbos na Morzu Egejskim. Sztuczna inteligencja otrzymała zadanie przetworzenia zdjęć barek, aby sprawdzić, czy jest w stanie dokładnie zidentyfikować je na tle innych naturalnych obiektów w morzu, takich jak drewno, piana morska i wodorosty. Po otrzymaniu wyników zespół odkrył, że algorytm jest w stanie odróżnić barkę od innych materiałów w 86 proc. przypadków.

Kierownik projektu badawczego Lauren Biermann, sugerując się wynikami przekonuje, że jesteśmy o krok bliżej połączenia wiedzy specjalistów zajmujących się ochroną środowiska morskiego z wiedzą ekspertów od satelitów. Z resztą wspomniana satelita Sentinel-2 była już użyta do wykrywania zanieczyszczeń z kosmosu. Wcześniej wykorzystano obrazy Sentinela do zlokalizowania dwutlenku siarki w atmosferze ziemskiej, ustalenia, skąd pochodzi, a także śledzenia, i w jaki sposób się przemieszcza. 

Sentinel-2
Pożary lasów widoczne z satelity Sentinel-2, fot. Pierre Markuse from Hamm, Germany, via Wikimedia Commons

Technologia ta nie ogranicza się jednak do satelity Sentinel-2, ale może również współpracować z innymi podobnymi maszynami, które dostarczają obrazy w najlepszej rozdzielczości.

Ale nie trzeba tak wysoko patrzeć. Zamiast satelitów moża wykorzystać także drony, które lepiej sprawdzą się przy badaniach na obszarze o mniejszym zasięgu.  

Świadoma decyzja 

Ekolodzy i naukowcy bezsprzecznie zgadzają się co do jednego: jest nadzieja, że technologie ze sztuczną inteligencją na czele pomogą w ochronie zagrożonych gatunków. 

– Fotopułapki, bioakustyka, satelity, modele matematyczne – to wszystko już teraz pomaga nam określać zagrożenia i planować zadania ochronne. Oczywiście te narzędzia są jeszcze nieidealne, wymagają dalszych ulepszeń, a w szczególności upowszechnienia. Nie zmienia to jednak tego, że od nich będzie zależała nasza przyszłość – tłumaczy Rafał Rzepkowski z WWF. 

Ekolog jest optymistą. Według niego technologie dają nadzieję, że przyszłe pokolenia zobaczą na własne oczy zagrożone gatunki, w tym słonie afrykańskie w swoim naturalnym środowisku. Z kolei prof. Nuria Selva dodaje, że decyzja o tym, jak będzie wyglądała nasza planeta, zależy wyłącznie od nas. 

– Bez bioróżnorodności po prostu będziemy ginąć. Do życia potrzebujemy czystej wody, powietrza, jedzenia, a kto nam je wyprodukuje, jeśli doprowadzimy do wyginięcia owadów, wytniemy wszystkie lasy i doprowadzimy do wyschnięcia wszystkich źródeł? – pyta prof. Nuria Selva. – Sztuczna inteligencja pomoże nam wyjść zagrożeniom środowiska na przeciw, ale to jednak do nas należy decyzja, czy coś z tym zrobimy. 

Data publikacji: 02.01.2023