
Do niedawna sekcja zatytułowana „Aplikacje, których nie będziemy rozwijać” stanowiła część publicznie dostępnych zasad odpowiedzialnego rozwoju AI Google. Teraz jednak została usunięta ze strony, na której firma opisuje swoje zasady. Owe zasady były kluczowe dla wizerunku Google jako przedsiębiorstwa zaangażowanego w rozwój technologii z poszanowaniem praw człowieka i międzynarodowego prawa. Firma, zapytana o komentarz w tej sprawie, odesłała do nowego wpisu na blogu, w którym wyjaśnia swoje podejście do „odpowiedzialnej sztucznej inteligencji”. W tym wpisie przedstawiono ideę współpracy między firmami, rządami i organizacjami, mającej na celu tworzenie technologii chroniących ludzi, wspierających globalny rozwój oraz zapewniających bezpieczeństwo narodowe.
W ostatnich dniach Google zdecydowało się na znaczącą zmianę w swoim podejściu do zasad odpowiedzialnego rozwoju sztucznej inteligencji. Firma usunęła ze swojej strony internetowej deklarację, w której obiecywała, że nie będzie budować sztucznej inteligencji wykorzystywanej do celów militarnych, takich jak broń czy systemy inwigilacyjne. Ta zmiana została zauważona i opisana przez Bloomberg i wywołała szerokie zainteresowanie opinii publicznej.
Zmiana w zasadach odpowiedzialności Google budzi pytania o przyszłość rozwoju technologii AI oraz o to, w jaki sposób firmy technologiczne będą balansować swoje cele biznesowe z etycznymi zobowiązaniami wobec społeczeństwa. Podkreśla również znaczenie debaty na temat granic zastosowań sztucznej inteligencji w kontekście moralnym, prawnym i społecznym. Działania firm takich jak Google mają dalekosiężne konsekwencje nie tylko dla branży technologicznej, ale także dla całego świata, podkreślając potrzebę stworzenia jasno określonych standardów etycznych wspierających odpowiedzialne wykorzystywanie sztucznej inteligencji.
Pomimo tych deklaracji, Google od pewnego czasu zmaga się z wewnętrznymi niepokojami wśród swoich pracowników, którzy wyrażają sprzeciw wobec kontraktów firmy z wojskiem. Współpraca Google z armią amerykańską i izraelską, w ramach takich projektów jak Project Nimbus, wywołała liczne protesty pracowników. Ich niezadowolenie wzrosło szczególnie po ujawnieniu, że niektóre modele sztucznej inteligencji opracowane przez firmę przyspieszają procesy militarne, takie jak tzw. „łańcuch zabójstw” w Pentagonie. Mimo zapewnień Google, że ich AI nie jest wykorzystywana do bezpośredniego wyrządzania szkody ludziom, te doniesienia dodatkowo wzmacniają kontrowersje wokół współpracy sektora technologicznego z wojskiem.
Nowe zasady Google dotyczące AI koncentrują się na tym, aby unikać niezamierzonych lub szkodliwych skutków korzystania z ich technologii oraz zapobiegać uprzedzeniom przy ich projektowaniu. Podkreślono również, że firma zamierza kierować się powszechnie akceptowanymi zasadami prawa międzynarodowego i prawami człowieka, co ma wpłynąć na dalsze budowanie ich zaufania wśród klientów i partnerów.