|
|
7 minut czytania

Human in the loop — co to znaczy w AI?

Ethan Mollick, jeden z czołowych badaczy innowacji i sztucznej inteligencji, opisuje zasady współpracy ze sztuczną inteligencją w książce Co-Intelligence: Living and Working with AI. Jedna z nich brzmi „Be the human in the loop” – bądź osobą, która ma wpływ na podejmowanie decyzji, która jest informowana na bieżąco. Co oznacza to w odniesieniu do AI?

Human in the loop

Skąd wzięło się pojęcie human in the loop?

Termin „human in the loop” ma swoje korzenie w erze wczesnej informatyki i automatyzacji produkcji. Odnosił się do kluczowej roli, jaką w nadzorowaniu złożonych, zautomatyzowanych systemów odgrywały ludzki osąd i specjalistyczna wiedza. W czasach, gdy komputery były jeszcze stosunkowo proste, ludzie musieli ręcznie wprowadzać dane i instrukcje, aby utrzymać działanie skomplikowanych maszyn i procesów przemysłowych.

Jednym z pierwszych przykładów systemów human-in-the-loop była kontrola lotów w NASA. Podczas misji kosmicznych, ludzcy operatorzy stale monitorowali i wprowadzali korekty do zautomatyzowanych systemów nawigacji i sterowania statkami kosmicznymi. Ich interwencje były niezbędne, aby zapewnić bezpieczeństwo i sukces misji w obliczu nieprzewidzianych sytuacji i zmiennych warunków kosmicznych.

Wraz z postępem technologicznym i pojawieniem się bardziej zaawansowanych systemów sztucznej inteligencji koncepcja human-in-the-loop ewoluowała. Obecnie opisuje ona sposób, w jaki ludzie są angażowani w proces uczenia maszynowego. Choć algorytmy uczenia głębokiego są w stanie przetwarzać ogromne ilości danych, nadal wymagają ludzkiego wkładu, aby uzyskać wiarygodne i etyczne rezultaty. Bez ludzkiego nadzoru systemy te są podatne na szereg ograniczeń i błędów – od niewłaściwej klasyfikacji danych, po utrwalanie szkodliwych uprzedzeń. Dlatego właśnie koncepcja human-in-the-loop stała się fundamentem dla zapewnienia etycznej, przejrzystej i odpowiedzialnej implementacji AI.

Pytanie o przyszłość human in the loop związane jest z pytaniem, dlaczego człowiek powinien brać udział w procesie decyzyjnym. Do tej pory uczestnictwo człowieka było wymuszane niedoskonałością systemów i koniecznością ręcznego sterowania w sytuacjach, których nie przewidziały automatyzacje. W miarę jak AI staje się coraz bardziej zaawansowana, obecność człowieka w procesach może okazać się niepotrzebna. Czy na pewno jednak chcemy takiej sytuacji?

Jak pisze Mollick, „W przyszłości może okazać się, że będziemy musieli bardziej się starać, aby być na bieżąco ze sposobami, w jakie AI podejmuje decyzje” („In the future, we may need to work harder to stay in the loop of AI decision-making”, E. Mollick, Co-Intelligence: Living and Working with AI). Stąd właśnie wynika konieczność uczenia się i korzystania z najnowszych osiągnięć AI oraz traktowania sztucznej inteligencji jako partnera w pracy, a nie zastępstwa.

Human in the loop

Źródło: Nasa (https://www.nasa.gov/)

Human-in-the-loop (HITL) w trenowaniu modeli AI

Wróćmy jednak do głównego znaczenia human in the loop w dzisiejszej AI. Jedną z kluczowych ról człowieka w procesie uczenia maszynowego jest udział w tworzeniu zbiorów danych treningowych. W przypadku uczenia głębokiego ludzie ręcznie oznaczają i opisują obiekty na obrazach lub fragmenty tekstu. To podejście aktywnego uczenia (active learning) pozwala na bardziej efektywne trenowanie modeli, zmniejszając ilość danych potrzebnych do osiągnięcia wysokiej dokładności. Jego celem jest zapewnienie większej różnorodności i reprezentatywności zbiorów danych, by zredukować ryzyko uprzedzeń i zniekształceń wynikających z niewłaściwej jakości danych wejściowych. To szczególnie ważne w przypadku specjalistycznych danych, na przykład medycznych, które wymagają eksperckiej wiedzy.

Weźmy na przykład system rozpoznawania obrazów wykorzystywany do diagnostyki medycznej. Ręczne opisywanie preparatów przez specjalistów z danej dziedziny umożliwia algorytmowi uczenie się rozróżniania struktur komórkowych, zmian patologicznych czy anomalii w tkankach. Zaangażowanie eksperckiej wiedzy ludzkiej w proces uczenia znacząco zwiększa precyzję i wiarygodność takiego systemu. Pozwala zatem tworzyć bazy danych o bardzo wysokiej jakości, co zmniejsza zapotrzebowanie na ogromne zbiory treningowe.

Innym przykładem może być rozwój systemów przetwarzania języka naturalnego (NLP) do automatycznego tłumaczenia. Zaangażowanie native speakerów do ręcznej adnotacji i korygowania wyników tłumaczeń pozwoliło znacząco podnieść jakość i precyzję takich modeli NLP.

W prostszych przypadkach uczenie przez ludzi jest jednak coraz częściej zastępowane przez nowocześniejsze metody, w których zaawansowane modele automatycznie rozpoznają tekst, dźwięki czy obrazy oraz przygotowują dane treningowe dla nowego modelu.

Nadal najważniejszym wkładem człowieka w trenowanie modeli AI jest Reinforcement Learning from Human Feedback, RLHF. Ludzie analizują tutaj nie dane wejściowe, ale rezultaty działania modelu AI, a następnie dokonują korekt ewentualnych błędów. Dzięki temu systemy AI mogą stopniowo doskonalić swoje zdolności generatywne i predykcyjne. Badania pokazują, że włączenie sprzężenia zwrotnego od człowieka w trakcie działania modeli uczenia głębokiego przyczynia się do ciągłej poprawy ich wydajności.

Nie bez znaczenia jest jednak różnorodność zespołu, który ocenia materiały tworzone przez AI. Zaangażowanie osób o zróżnicowanym pochodzeniu, płci, doświadczeniu życiowym i zawodowym pomaga minimalizować ryzyko zniekształceń i uprzedzeń w zbiorach danych treningowych. Zwiększa to bezstronność i inkluzywność rozwijanych modeli AI.

Human in the loop

Źródło: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Człowiek w procesie decyzyjnym AI

Choć systemy AI stają się coraz bardziej zaawansowane, wciąż istnieją obszary, w których ludzki osąd i zdrowy rozsądek są nie do zastąpienia. Jednym z nich są sytuacje wysokiego ryzyka, gdzie błędna decyzja może mieć poważne konsekwencje.

Wyobraźmy sobie system AI stosowany do oceny ryzyka kredytowego lub podejmowania decyzji w sprawach karnych. Bez ludzkiego nadzoru taki system może w sposób niezamierzony utrwalać istniejące uprzedzenia społeczne i dyskryminować niektóre grupy. Dlatego tak ważne jest, aby człowiek pozostawał „w pętli” procesu decyzyjnego, weryfikując i korygując ewentualne błędy lub niesprawiedliwe wnioski. Co więcej, przy obecnym systemie prawnym i tak człowiek ponosiłby odpowiedzialność za podejmowane przez AI decyzje.

Włączenie człowieka w pętlę decyzyjną AI ma również kluczowe znaczenie dla zapewnienia przejrzystości i odpowiedzialności tych systemów. Ramy prawne i regulacyjne, takie jak unijne rozporządzenie o sztucznej inteligencji (AI Act), kładą nacisk na human-in-the-loop jako wymóg w zastosowaniach AI wysokiego ryzyka. Poprzez ciągły nadzór i możliwość ingerencji możemy zrozumieć i wyjaśnić proces podejmowania decyzji przez AI oraz ponosić odpowiedzialność za ich skutki.

Human in the loop

Źródło: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Zmiana perspektywy: AI w procesie decyzyjnym człowieka

Choć koncepcja human-in-the-loop często jest postrzegana jako sposób na zapewnienie kontroli nad systemami AI, ma ona również drugą, równie ważną stronę. Mianowicie technologie AI mogą stać się niezastąpionym narzędziem wspomagającym ludzkie procesy decyzyjne i rozwiązywanie problemów.

Wyobraźmy sobie zespół ekspertów pracujących nad skomplikowanym projektem inżynieryjnym lub badawczym. Wsparcie systemu AI w zakresie przetwarzania i analizy ogromnych ilości danych, generowania raportów czy syntetyzowania kluczowych wniosków może okazać się nieocenione. AI staje się tutaj „wirtualnym ekspertem”, umożliwiając ludziom skupienie się na bardziej kreatywnych i strategicznych aspektach pracy.

Co więcej, częste i owocne interakcje z systemami AI zmuszają nas do ciągłego rozwijania umiejętności krytycznego myślenia, kwestionowania wniosków i dostosowywania się do nowych sposobów rozwiązywania problemów. Gdy stale współpracujemy z AI, wyostrza się nasza zdolność do podejmowania przemyślanych, opartych na faktach decyzji.

Podejście human-in-the-loop promuje także poczucie odpowiedzialności za podejmowane decyzje. Aktywnie uczestnicząc w procesie AI, zachowujemy kontrolę nad technologią i jej implikacjami, zapewniając zgodność rozwiązań z wartościami etycznymi i normami społecznymi. To z kolei buduje większe zaufanie do AI wśród jej użytkowników.

Koncepcja „wspomaganej inteligencji” (augmented intelligence) zakłada, że AI i ludzie będą współpracować w komplementarny sposób — systemy AI będą świadczyć usługi analityczne i przetwarzania danych, podczas gdy ludzie będą wykorzystywać te informacje do tworzenia strategii, kreatywnego myślenia i podejmowania ostatecznych decyzji. Taka symbiotyczna relacja pozwala wykorzystać unikalne zalety obu stron i uzyskać najlepsze rezultaty.

Podsumowanie

Choć systemy AI stają się coraz bardziej zaawansowane, wciąż wymagają ludzkiego przewodnika, aby uzyskać pełną wartość i uniknąć potencjalnych pułapek, takich jak uprzedzenia, brak transparentności czy wymyślone dane. Koncepcja human-in-the-loop zapewnia tę niezbędną równowagę, łącząc najlepsze cechy ludzkiej inteligencji z ogromną mocą obliczeniową AI.

Poprzez zaangażowanie człowieka w proces trenowania modeli, podejmowania decyzji oraz nadzorowania systemów AI, możemy tworzyć bardziej odpowiedzialne, etyczne i skuteczne rozwiązania. Co więcej, taka współpraca pozwala rozwijać unikalne umiejętności i kształtować nowe sposoby pracy, które w pełni wykorzystują potencjał obu stron.

Firmy, które jako pierwsze wdrożą podejście human-in-the-loop, będą w stanie lepiej zrozumieć i wykorzystać możliwości generatywnej AI, jednocześnie zapewniając bezpieczeństwo marki. To właśnie umiejętność łączenia dwóch rodzajów kompetencji i wzmacnianie sił ludzi potencjałem AI gwarantuje dokładność i zgodność z wewnętrznymi procesami.

Autor ifirma.pl

Marta Matylda Kania

Założycielka Superpowered by AI. Opracowuje dla biznesu procesy tworzenia treści przez generatywną sztuczną inteligencję. Interesuje się przyszłością AI w biznesie, pisze zaawansowane prompty i prowadzi szkolenia z ChataGPT dla firm.

Dodaj komentarz

Zachęcamy do komentowania naszych artykułów. Wyraź swoje zdanie i włącz się w dyskusje z innymi czytelnikami. Na indywidualne pytania (z zakresu podatków i księgowości) użytkowników ifirma.pl odpowiadamy przez e-mail, czat lub telefon – skontaktuj się z nami.

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Administratorem Twoich danych osobowych jest IFIRMA S.A. z siedzibą we Wrocławiu. Dodając komentarz na blogu, przekazujesz nam swoje dane: imię i nazwisko, adres e-mail oraz treść komentarza. W systemie odnotowywany jest także adres IP, z wykorzystaniem którego dodałeś komentarz. Dane zostają zapisane w bazie systemu WordPress. Twoje dane są przetwarzane na podstawie Twojej zgody, wynikającej z dodania komentarza. Dane są przetwarzane w celu opublikowania komentarza na blogu, jak również w celu obrony lub dochodzenia roszczeń. Dane w bazie systemu WordPress są w niej przechowywane przez okres funkcjonowania bloga. O szczegółach przetwarzania danych przez IFIRMA S.A dowiesz się ze strony polityki prywatności serwisu ifirma.pl.

Cała firma
w jednym miejscu?

Z Biurem Rachunkowym i aplikacją IFIRMA masz wszystko pod kontrolą i w jednym narzędziu!

już od 149zł/mies.
Zleć księgowość

Może te tematy też Cię zaciekawią

Biuro rachunkowe - ifirma.pl

Mobilnie. Wszędzie

Z ifirma.pl masz księgowość w swoim telefonie. Wysyłaj dokumenty, sprawdzaj salda i terminy online, gdziekolwiek jesteś. Aplikację znajdziesz na najpopularniejszych platformach.

Mobilnie