Sztuczna inteligencja rekrutuje realnych pracowników. Twoje CV też czyta robot

Z poszukiwaniem pracy jest jak z randkowaniem: trzeba spełnić szereg kryteriów, żeby mieć matcha. A jeśli nowe technologie zmieniły to jak szukamy miłości, to tym bardziej wprowadziły rewolucję w rekrutacji. Maszyny piszą ogłoszenia o pracę, wybierają CV, sprawdzają kompetencje kandydatów. 

06.12.2023 05.00
Sztuczna inteligencja w rekrutacji. Czy robot czyta twoje CV?

Jak najłatwiej szuka się pracy? Oczywiście po znajomości. Ale jak poklepać po plecach robota, jak puścić oko do algorytmu, jak uśmiechem błysnąć w epoce sztucznej inteligencji. Jeśli nie po znajomości to strategią: trzeba stworzyć świetne CV, elegancko się ubrać i przygotować na rozmowę kwalifikacyjną, aby przekonać do siebie przyszłego szefa. Tyle że zasady starego świata coraz częściej odchodzą w zapomnienie. Dziś miłość i szczęście, także zawodowe ukrywa się w algorytmach.

W nowym świecie trzeba najpierw przechytrzyć maszynę, aby w ogóle mieć szansę porozmawiać z żywym człowiekiem. Dopiero wtedy możemy przekonać go, że jesteśmy tym, kogo szuka. Problem w tym, że to wcale nie jest proste, pokazuje przykład Laury Michelle Davis, amerykańskiej dziennikarki serwisu Cnet.com.

fot. shutterstock / claudenakagawa
fot. shutterstock / claudenakagawa

Davis sprawdzała jak osoby szukające pracy próbują pokonać boty skanujące ich CV. Coraz częściej ich selekcją nie zajmuje się już rekruter, ale specjalny program. System odrzuca kandydatury tych, którzy przynajmniej w teorii nie pasują na dane stanowisko. Program szuka wysokiego dopasowania słów kluczowych. Zwykle dopasowanych musi być nawet 70-80 proc. wyrażeń, które znalazły się w CV i w ogłoszeniu o pracę. Jeśli program ich nie znajdzie, kandydat nie przechodzi do kolejnego etapu. 

– Rzadko zdarza się, że pracę dostaje najbardziej wykwalifikowana osoba – przyznała w rozmowie z Cnet.com Lauren Milligan, trenerka kariery pracująca z klientami próbującymi wrócić na rynek pracy. Nie dziwi więc, że aby przechytrzyć system niektórzy kandydaci zaczęli kombinować. Jak? A choćby wpisując w swoje CV dziesiątki potencjalnie kluczowych słów białą czcionką. Tak, aby były widoczne dla systemu, ale już nie dla człowieka. Miało to im pozwolić dojść do poziomu, gdzie na ich kandydaturę spojrzą ludzkie oczy. Tyle tylko, że nawet tak desperacki krok wcale nie musi wyjść na dobre.

Kiedy pytam Mają Gojtowską, specjalistkę ds. HR, rekrutacji i  employer brandingu a przy tym autorkę niedawno wydanej książki “Onboarding pracowników. Aby początek nie był końcem” o ten sposób na przechytrzenie systemu, odpowiada krótko:

– Nie ma sensu oszukiwać technologii, bo kłamstwo zawsze, także w rekrutacji, ma krótkie nogi. Może i w ten sposób przechytrzymy program, ale rekruter i tak, tyle że nieco później zobaczy, że w naszym CV nie ma wymaganych umiejętności i kwalifikacji. Oszukując już na starcie zmniejszamy swoje szanse niż je zwiększamy. Poza tym rekruterzy coraz rzadziej podejmują decyzję tylko na podstawie CV, bo taki proces obarczony jest największym ryzykiem błędu. Dlatego kluczowe są testy kompetencji, a te z pewnością powiedzą, jaki jest stan naszych umiejętności – mówi Maja Gojtowska i dodaje, że jest sporo innych sposobów na to, aby dostosować się do nowej ery rekrutacji.

O tym opowiemy później.

Rekrutacja i automatyzacja

Najpierw kilka słów o nowej erze rekrutacji, która dotarła już do Polski. O tym, że lawina ruszyła mówią najnowsze dane. Już 11 proc. firm w Polsce w pełni wykorzystuje technologie sztucznej inteligencji w procesach rekrutacyjnych - to prawie pół miliona spośród 4,3 mln przedsiębiorstw działających w naszym kraju. A jeszcze więcej, bo aż 20 procent, czyli lekko licząc blisko milion firm, przy udziale narzędzi AI realizuje część procesów rekrutacyjnych. Kolejne 19 proc. planują zrobić to w najbliższym roku.

To wnioski z raportu ManpowerGroup, którego badacze pytali polskich przedsiębiorców o wykorzystywane AI do pozyskiwania pracowników. Już teraz zauważają oni, że wdrożenie nawet elementów tej technologii pozwala zaoszczędzić mnóstwo czasu, a więc i pieniędzy. Nie dziwi więc, że do firm wdrażane są kolejne narzędzia, które mają optymalizować, automatyzować kolejne zadania wykonywane dotąd przez żywego człowieka.

fot. shutterstock / claudenakagawa
fot. shutterstock / claudenakagawa

Co to za narzędzia? A choćby rozwiązania ATS, czyli zautomatyzowane systemy do zarządzania rekrutacją online, które coraz częściej wykorzystują rozwiązania sztucznej inteligencji. Ułatwiają one tworzenie treści ogłoszeń o pracę, docieranie do poszukiwanych specjalistów, gromadzenie i porządkowanie ich danych, usprawniają kontakt z kandydatami, ale przede wszystkim pomagają w selekcji aplikacji. W mgnieniu oka wybierają osoby najlepiej dopasowane do stanowiska.

W tym celu CV są skanowane pod względem umiejętności, doświadczenia i predyspozycji. A kiedy grupa kandydatów jest już wybrana, program pomaga zweryfikować ich umiejętności, dając do rozwiązania test bądź zadanie do wykonania. Program może też przeprowadzić wstępną rozmowę kwalifikacyjną.

Wiele z tych zadań wykonuje Bonifacy, czyli robot wykorzystujący sztuczną inteligencję. Program o imieniu jak z bajki o kocie wspiera konsultantów w warszawskiej firmie Antal.

– Nie tylko wyszukuje kandydatów na portalach społecznościowych na podstawie nazw ich stanowisk, ale i nawiązuje z nimi kontakt, przedstawiając e-mailem ofertę pracy. Wybrane osoby umieszcza na liście przekazywanej rekruterowi, którego wspiera potem w selekcji CV – opowiadał w "Rzeczpospolitej" Iwo Paliszewski z Antal.

Bonifacy robi analizę i dostarcza ludzkiemu rekruterowi crème de la crème. Człowiek nie traci czasu na banały, ale skupia się na konkretach.

Ze zautomatyzowanych systemów korzysta prawie 99 proc. firm z listy Fortune 500. Wśród nich jest Microsoft, który wykorzystuje platformę Humanly do przeprowadzania automatycznych czatów i wirtualnych rozmów kwalifikacyjnych z kandydatami. Takie rozwiązania nie są obce też polskim firmom. Jednym z nich jest choćby HR-Voicebot oferowany przez firmę Apifonica, który dzięki algorytmom i możliwościom rozpoznawania głosu dokonuje wstępnej kwalifikacji kandydatów. Co ważne, bot udziela kandydatom feedbacku, o czym zapominają białkowi rekruerzy. 

Zautomatyzowanie tego procesu może pomóc zaoszczędzić setki, jak nie tysiące godzin pracy. – Co skutkuje skróceniem cyklu rekrutacji średnio o 5 razy – zachwalał w serwisie Bankier.pl Bartosz Malinowski z Apifonica.

Wykorzystanie voice botów w rekrutacji daje szczególnie duży potencjał firmom, które prowadzą ciągłą rekrutację. Mowa o branżach magazynowej, logistycznej czy contact center, gdzie rotacja jest wysoka, a ogłoszenia o pracę są otwarte właściwie bez przerwy. Dziś z takich rozwiązań korzystają m.in. Leroy Merlin, Enelmed czy Decathlon

– Wiele firm ma obszerne bazy danych kandydatów. Widzę ogromny potencjał w tym, aby voice bot obdzwonił te osoby pytając, czy są zainteresowani pracą, bo aplikowali np. pół roku temu. Lepiej spróbować zatrudnić ludzi, których i tak mamy w bazie danych niż szukać ich na nowo – mówi Maja Gojtowska.

Jednocześnie zaoszczędzony dzięki technologiom czas można spożytkować próbując choćby zminimalizować największe bolączki trapiące rynek rekrutacji od lat. Tu bowiem niezmiennie oczekiwania osób, które pracy szukają różnią się od tego, jak wygląda rzeczywistość.

fot. shutterstock / claudenakagawa
fot. shutterstock / claudenakagawa

– Branża ma do wykonania ogromną pracę u podstaw, aby rozwiązać największe problemy, a nowe technologie mogą tu pomóc. W jaki sposób? Badania, choćby ostatnie eRekrutera o doświadczeniach kandydatów, mówią że ogłoszenia o pracę są nierzetelne, nie opisują dobrze stanowisk i wymagań, cały czas brakuje widełek wynagrodzeń a przede wszystkim feedbacku, czyli przyczyn, dla których dana osoba została odrzucona z procesu rekrutacyjnego. Napisałam o tym książkę w 2019 roku i niewiele się zmieniło – wzdycha Gojtowska.

Jak więc wykorzystać nowe technologie? Można zlecić pisanie ogłoszenia o pracę sztucznej inteligencji, ale dbając, aby było kompleksowe, zawierało wszelkie informacje, których oczekują kandydaci. A do tego oddawało ducha i kulturę organizacyjną firmy. To oczywiście niełatwe, ale może dać szansę na wyjście z utartych schematów działań.

– W wielu firmach jest tak, że ogłoszenia są robione na zasadzie kopiuj-wklej z przekonaniem, że tak pisaliśmy zawsze, więc nadal będziemy tak pisać. Sztuczna inteligencja może wnieść tutaj powiew świeżości i kreatywności – mówi Gojtowska.

Nieco bardziej sceptycznie widzi to Dominika Olczak, people Operations Lead w Inwedo. Sama miała okazję wygenerować przykładowe ogłoszenie rekrutacyjne przez sztuczną inteligencję, ale wynik był rozczarowujący. Otrzymała szablonowy opis ról, który w żaden sposób się nie wyróżniał.

– Nie mówił za wiele o tym, co oznacza dołączenie do zespołu, co jako organizacja możemy zaproponować. Zmieniło to dopiero użycie dobrych, szczegółowych poleceń (promptów). A więc nie jest tak, że zlecimy zadane ChatowiGPT i natychmiast otrzymamy świetne ogłoszenie. To również wymaga pracy i wiedzy, jak to zrobić dobrze – mówi Olczak i przyznaje że wciąż potrzebny jest człowiek. 

Wspominaliśmy o problemie z feedbackiem. Do jego zmiany również można wykorzystać nowinki technologiczne. Dziś lwia część kandydatów nie dowiaduje się, dlaczego ich aplikacja została odrzucona i to nawet, gdy decyduje o tym żywy człowiek a nie robot. Jest tak, bo rekruterzy często nie potrafią przekazywać krytycznych uwag, a jeśli to robią, to ustnie, choć kandydaci wolą mieć to na piśmie. Pisanie jest za to czasochłonne, więc najłatwiej nie przekazać feedbacku i wytłumaczyć się brakiem czasu.

To zresztą dla wielu przekonujący argument, szczególnie gdy rekruter podeprze się tym, że skupia się na tych kandydatach, którzy przeszli dalej, zamiast „marnować czas” na troszczenie się o tych, którzy po drodze odpadli.

– A to duży błąd – mówi Gojtowska. – Każdy taki niezadowolony niedoszły pracownik może być też naszym klientem. Jeśli będzie miał złe zdanie o naszej firmie, to często źle wypowie się o naszym produkcie, usłudze. Mało tego, złą opinią podzielił się ze znajomymi.

Rozwiązania wykorzystujące automatyzację, a także sztuczną inteligencję pozwalają jednak szybciej i łatwiej udzielić upragnionego przez kandydatów komunikatu zwrotnego.

– Są już firmy na rynku, które inwestują w narzędzia AI pomagające pisać feeedback. Osoba prowadząca rekrutację tylko wyklikuje cechy czy umiejętności, których zabrakło kandydatowi oraz te, które mówiły o jego dobrych stronach, a program sam pisze ubiera to w formę dłuższego tekstu i wysyła do zainteresowanego – dodaje Maja Gojtowska.

Ślepy sędzia ludzkich spraw

Korzystając z wygody nowych technologii nie powinniśmy tracić czujności i krytycznego podejścia. Kiedy bowiem tych zabraknie może skończyć się jak w firmie Amazon. Firma Jeffa Bezosa w 2014 roku eksperymentalnie wdrożyła system wspomagający rekrutację wykorzystujący sztuczną inteligencję. Miał on analizować oraz oceniać aplikacje kandydatów do pracy. Po pewnym czasie okazało się jednak, że program nie jest sprawiedliwy. Wyższe oceny przydziela mężczyznom a dyskryminuje kobiety. Działo się tak dlatego, że modele Amazona były trenowane na danych z przeszłości, a był to okres kiedy częściej na stanowiska inżynierskie zatrudniano mężczyzn. W efekcie system nauczył się, że preferowani są panowie. Firma z Seattle ostatecznie wycofała się z tego projektu, ale wątpliwości pozostały.

Tyle tylko, że za chwilę minie od nich dekada. W tym czasie wiele mogło się zmienić. Może dziś podobne narzędzia są wolne od ryzyka dyskryminacji wobec kobiet, mniejszości narodowych czy osób niepełnosprawnych. Pytani przez nas eksperci zalecają jednak ostrożność.

– Trzeba pamiętać, że dane, na których trenowane są modele AI mogą być zanieczyszczone. Dlatego te obawy ciągle są zasadne. Sztuczna inteligencja nie jest gwarantem ani równości szans ani wykluczenie dyskryminacji. Obecnie nie powierzyłabym AI całego procesu np. selekcji CV, bo to zbyt ryzykowne. Na którymś etapie powinien znaleźć się człowiek z dodatkową weryfikacją – przestrzega Dominika Olczak i dodaje, że kluczowe jest, aby przy wdrażaniu nowych technologii, w tym sztucznej inteligencji do rekrutacji czy środowiska pracy nie zapominać o ludziach.

– Trzeba zachować zdrowy rozsądek i człowiekocentryczność, a to największe wyzwanie. Działania zespołów HR powinny skupiać się przede wszystkim na ludziach. Niezależnie od tego jakiej technologii użyjemy, to oni powinni być na pierwszym planie – dodaje.

fot. shutterstock / claudenakagawa
fot. shutterstock / claudenakagawa

– Te obawy ciągle są żywe. Zawsze musimy obawiać się dyskryminacji i być wyczuleni na to w jaki sposób mierzymy kompetencje kandydatów i podejmujemy decyzje – dodaje Maja Gojtowska.

– Obawy zawsze są, ale ludzie też nie są wolni od uprzedzeń. A są już technologiczne narzędzia, które dbają o zarządzanie różnorodnością. Wystarczy im wskazać, aby przy analizie CV nie brały pod uwagę np. płci, wieku, daty urodzenia czy zdjęcia. Usuwamy wszelkie informacje, które mogą prowadzić do dyskryminacji. To wymaga pracy, ale to od nas zależy czy taka rekrutacja nie jest dyskryminująca i jest bardziej uczciwa – mówi Marta Zalewska, współzałożycielka startupu AI Teammate.

Do kogo ja piszę?

A obawy o zagrożenie dyskryminacją nie są jedynymi, które pojawiają się wraz z nowymi technologicznymi rozwiązaniami. Warto już dziś zadawać ważne pytania, choćby o to czy ogłoszenia o pracę, które są oceniane i selekcjonowane przez sztuczną inteligencję powinny być oznaczone. W końcu inaczej stworzyliśmy aplikację wiedząc, że przeczyta i ocenią ją maszyna a inaczej, gdy będziemy dostosowywać ją do człowieka.

– Taka informacja mogłaby sprawić czy osoby starające się o pracę zbyt mocno dopasują CV pod program i w efekcie zabraknie informacji, które są istotne dla żywego człowieka-rekrutera - obawia się Dominika Olczak. 

Inaczej widzi to Marta Zalewska. Jej zdaniem ogłoszenia nie powinny być oznaczane. 

– A czy dziś ogłoszenia zawierają informację, że najpierw przegląda je asystentka prezesa sprawdzając podstawowe informacje? – pyta retorycznie.

Odmienne zdanie ma zaś Maja Gojtowska.

– Kandydat powinien wiedzieć kto ocenia jego CV. Jeśli robi to AI, powinno być to oznaczone. W ogłoszeniu powinien być opisany cały proces rekrutacji. Jeśli pierwszym etapem jest kontakt z voice botem, to powinniśmy napisać o tym, że np. w 15 min od wysłania CV skontaktuje się z tobą voicebot, który zada kilka pytań. A jeśli na drugim etapie jest test, który przeprowadzi sztuczna inteligencja, to kandydat powinien to wiedzieć. Im bardziej transparentnie do tego podejdziemy, tym lepiej będziemy odbierani jako potencjalni pracodawcy – tłumaczy Gojtowska.

Podobnego zdania jest Blanka Wawrzyniak, kierowniczka programu badawczego Gospodarka Cyfrowa w Fundacji Instrat: 

– Tak, ogłoszenia powinny być tak oznaczane. Nie tylko wynika to z RODO, ale byłoby to korzystne także z perspektywy transparentności rekrutacji i jej etycznych aspektów. Umożliwiłoby to kandydatom dostosowanie ich CV do danej specyfikacji (np. poprzez umieszczenie słów kluczowych w dokumentach) czy przedstawienie swoich umiejętności i doświadczenia w sposób, który pozwoliłby wpasować się w klucz. Przejrzystość stworzyłaby też możliwość do odwołania się od decyzji algorytmu w przypadku podejrzenia, że zadziałał on dyskryminująco – mówi Blanka Wawrzyniak.

A to ostatnie wydaje się kluczowe, bo kiedy nasze CV odrzuca system informatyczny, to osoby starające się o pracę powinny wiedzieć, dlaczego zostały odrzucone. Wysłanie takiej informacji razem z feedbackiem dość łatwo zautomatyzować. Transparentność procesu pokazywałaby, że firma na dobre intencje. Jej brak budzi zasadne pytania.

Tyle tylko, że to wcale nie jest takie proste. Wszystko przez tzw. efekt czarnej skrzynki, na który zwraca uwagę Blanka Wawrzyniak, kierowniczka programu badawczego Gospodarka Cyfrowa w Fundacji Instrat.

fot. shutterstock / claudenakagawa
fot. shutterstock / claudenakagawa

– Niektóre systemy sztucznej inteligencji są trudne do zrozumienia nawet dla samych ich twórców, a co dopiero dla podmiotów je wykorzystujących. Potencjalny pracodawca może stosować technologię, która jest w pewien sposób dyskryminująca, nie do końca zdając sobie sprawę z wadliwości jej działania. Black box effect oraz brak przejrzystości rekrutacji może więc rodzić obawy związane ze sprawiedliwością i uczciwością takiego procesu. Niemniej pracodawcy wykorzystujący AI do selekcjonowania kandydatów nie powinni czuć się bezkarni. Organizacja może ponosić odpowiedzialność, nawet jeśli nie zdawała sobie sprawy, że jej system sztucznej inteligencji działał dyskryminująco – mówi Blanka Wawrzyniak.

Ekspertka przekonuje, że firmy które wykorzystują sztuczną inteligencję podczas rekrutacji powinny podejmować działania minimalizujące ryzyka związane z dyskryminacją algorytmiczną, chociażby poprzez audytowanie algorytmów, regularne ich badanie i dokonywanie oceny narzędzi AI.

– To też dbanie o to, aby dane wykorzystywane do trenowania AI były dostatecznie reprezentatywne; czy zapewnienie większej przejrzystości w działaniu algorytmów. Korzystne byłoby także powoływanie w firmach (przede wszystkim tych największych) Rad ds. Etyki Technologii bądź współpracowanie z ekspertami zewnętrznymi zajmującymi się etyczną technologią, innowacjami w HR, których zadaniem byłoby dostarczanie niezależnych porad i wskazówek w zakresie choćby etyki i prawa wymienia Wawrzyniak.

A co mogą zrobić osoby, które podejrzewają, że zostały nieuczciwie potraktowane przez algorytm? Okazuje się, że nie są całkiem bezbronne. Mogą podjąć konkretne kroki celem ochrony swojego interesu i zmiany decyzji podjętej przez system. Pomagają w tym przepisy RODO.

– Przede wszystkim art. 22. Przepis ten mówi, że osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa. Zapisy te dotyczą więc także elektronicznych metod rekrutacji, nieprzewidujących interwencji człowieka. O ile więc nie występują przesłanki legalności takiego działania (przewidziane w art. 22 ust.2), odrzucony kandydat może zakwestionować decyzję pracodawcy. Konieczne jest jednak ustalenie, czy została ona oparta jedynie na zautomatyzowanym przetwarzaniu. Jeśli tak, to kandydat może wnioskować o wyjaśnienie decyzji przez firmę i ponowne przeanalizowanie jego aplikacji, tym razem przez człowieka  – mówi Blanka Wawrzyniak.

Jednak czy taki wniosek i tak nie przekreśli nas w oczach pracodawcy? Nietrudno się domyślić, że wszczynanie tego rodzaju awantur nie pomoże nam w rekrutacji. Cóż bowiem, że firma przyzna nam rację, jeśli i tak odrzuci nas w dalszym procesie nie chcąc zatrudniać do zespołu formalisty i pieniacza.

– Faktycznie ochrona prawna kandydatów nieuczciwie odrzuconych przez system AI bywa iluzoryczna – przyznaje Blanka Wawrzyniak. Dlatego w jej opinii podmioty wykorzystujące AI w obszarze rekrutacji oraz zarządzania pracą powinny już teraz podlegać ściślejszemu nadzorowi ze strony organów państwa. – Regulacje w tym obszarze są niezbędne. Nadziei na zwiększenie kontroli nad narzędziami AI można upatrywać w projektowanych na poziomie unijnych regulacjach: AI Act oraz AI Liability Directive – dodaje ekspertka.

fot. shutterstock / claudenakagawa
fot. shutterstock / claudenakagawa

Na ich przyjęcie i implementowanie do krajowych przepisów jeszcze poczekamy. A co już teraz mogą robić pracownicy, aby przetrwać w nowej erze rekrutacji? 

Jak na Dzikim Zachodzie

– Jeśli mamy podejrzenie, że firma używa AI w rekrutacji, to powinniśmy użyć tej samej broni, choćby tworząc za jej pomocą CV – podkreśla Marta Zalewska.

Wątpliwości co do tego nie miał Prem Kumar, prezes Humanly, który w artykule Cnet.com przyznawał, że obecnie kandydaci nie wiedzą jakie algorytmy są używane ani kto czy co ostatecznie podejmuje decyzje o zatrudnieniu. Mało tego nie ma nad nimi żadnej kontroli. 

– Pod względem standardów to jesteśmy na Dzikim Zachodzie – mówił.

Czy to oznacza, że wszystkie chwyty są dozwolone?

A cyberprzestrzeń pełna jest już sposobów na przygotowanie się do nowego wspaniałego świata rekrutacji. Kiedy więc przygotowujemy CV, które według naszych podejrzeć oceni sztuczna inteligencja, to powinniśmy – jak radzą eksperci w Cnet.com – pożegnać wszelkie ozdobne elementy, jak fantazyjne tabele i grafiki. Przejście przez system ułatwią raczej suche dane podane w jak najbardziej czytelny sposób. Warto również skorzystać z internetowego symulatora słów kluczowych i skanera CV (dla angielskojęzycznych ogłoszeń może to być np. TheProfessional.Me), które sprawdzą czy nasza aplikacja jest zgodna z ogłoszeniem o pracę.

Można też wypróbować narzędzie o nazwie Yoodli, które działa jak inteligentne lustro. Rejestruje nasze odpowiedzi podczas testowej rozmowy kwalifikacyjnej a następnie je analizuje pod względem doboru słów, tempa wypowiedzi, pauz, kontaktu wzrokowego czy uśmiechu.

Może wydawać się to nieco orwellowskie, ale wiele wskazuje na to, że wielu z nas będzie musiało się z taką czy inną technologią zaprzyjaźnić, aby choć nieco wyrównać szanse na nierównym rynku pracy. Czy zatem można próbować flirtu z technologią? Chyba nie będzie innego wyjścia. 

Ilustracja tytułowa: fot. shutterstock / claudenakagawa

Data publikacji: 06.12.2023