Google boi się własnego produktu. Właśnie zakazał go pracownikom
Czy sztuczna inteligencja rzeczywiście zmieni rynek pracy? No tak średnio, bo nawet firma, która ją tworzy, zabrania pracownikom sięgania po chatboty. I to nawet nie cudze, bo Google przestrzega pracowników przed używaniem własnego Barda.
O generatywnej sztucznej inteligencji mówi się bardzo dużo w kontekście zastąpienia pracowników w wielu branżach - głównie kreatywnych oraz w sektorze IT. Choć Sam Altman ma inne zdanie: AI doprowadzi do zwiększenia produktywności, a nie bezrobocia.
Jak pisałam w maju o sytuacji w Samsungu i Apple, oba te koncerny mają całkowicie odmienne zdanie. W tych przedsiębiorstwach generatywna sztuczna inteligencja ani nikogo nie przyspieszy, ani nie zastąpi - ich zarząd zabronił korzystać pracownikom wszystkich szczebli z popularnych chatbotów. Teraz tą samą drogą idzie Google, zabraniając pracownikom korzystania z generatywnej AI. Także tej własnej.
Polityka Google wobec pracowników: Bard jest fajny, jak rozdajemy go innym, ale sami go nie dotykajcie
Jak informuje Reuters, powołując się na czterech informatorów powiązanych ze sprawą, zarząd Google wprowadził nową politykę co do korzystania z generatywnej AI przez pracowników. Jest ona dość prosta: pracownicy nie mogą korzystać z chatbotów, a zakaz dotyczy nie tylko ChatGPT czy Binga, ale także własnej AI stworzonej przez Google - Barda. Co jest dość ciekawe, biorąc nie tylko pod uwagę, że model należy do Google, ale i fakt, że to sami pracownicy byli odpowiedzialni za jego trening.
To co motywuje koncern to oczywiście kwestie prywatności, bowiem treści przetwarzane przez modele sztucznej inteligencji. podlegają weryfikacji przez ludzkich pracowników. Ponadto same generatywna AI w odpowiedzi na niektóre prompty - zapytania jest w stanie odpowiedzieć... niezmodyfikowanymi treściami, na których została wytrenowana.
Zakaz ustawiony przez Google dotyczy zarówno przetwarzania tekstu naturalnego (np. odpowiadania na pytania czy streszczania lub upraszczania tekstu), jak i rozwiązywania problemów programistycznych. W tym drugim przypadku Google ostrzegło pracowników by ci nie używali wygenerowanego przez chatbot kodu programistycznego, gdyż może on zawierać błędy.
Poproszona o komentarz firma powiedziała, że Bard może sugerować niepożądany kod, ale mimo to pomaga programistom. Google powiedziało również, że chce być przejrzysty w kwestii ograniczeń swojej technologii.
- podaje Reuters
Zdjęcie główne: William Barton / Shutterstock