W Swarmcheck jesteśmy pasjonatami przemyślanej i etycznej technologii. Zobaczcie jakie mamy podejście do projektowania naszych rozwiązań.

Wytłumaczalna AI

Większość popularnych rozwiązań AI działa jak tzw. “czarne skrzynki”. Nikt, łącznie z twórcami tych technologii, nie wie, dlaczego system podał taki a nie inny wynik. Innymi słowy nie wiemy, czy system AI podjął decyzję na podstawie poprawnych przesłanek, czy być może dlatego, że akurat tak robi w poniedziałki.

W kontraście, ekspertowy system AI oparty o mapy argumentacji jest całkowicie transparentny. Zapewnia on wizualną prezentację przyczyn danej decyzji (ciągów argumentów za i przeciw) wraz ze źródłami.

Współpraca
człowiek-AI

Human-in-the-loop to podejście, w którym ludzie aktywnie uczestniczą w procesie rozwoju i działania systemów sztucznej inteligencji, zapewniając ciągłe wsparcie, nadzór i informację zwrotną.

W systemie Swarmcheck użytkownik może stale wpływać na decyzje poprzez dodawanie kolejnych argumentów. Dzięki reużywaniu wiedzy, dodanie jednego istotnego argumentu może poprawić wiele decyzji jednocześnie. Ostatecznie, efekt kontroli decyzji sterowany nie jest przez konkretnego człowieka, ani przez AI, ale przez racje ujawniane w racjonalnej dyskusji.

Rozumowanie AI

Mapowanie argumentacji wzmacnia kompetencję krytycznego myślenia u osób, które korzystają z tej metody. Co ciekawe, również duże modele językowe (LLM) korzystające z mapowania argumentacji wykazują cechy lepszego wnioskowania! Sprawdziliśmy to na przykład w kontekście automatyzacji wnioskowań prawniczych.

Kluczowym aspektem połączenia LLM i ekspertowego systemu argumentacyjnego jest istotna redukcja halucynacji. Czyli generowania fałszywych treści przez LLM. Podczas gdy LLM może zbierać dla nas argumenty z różnych źródeł, robić podsumowania, a nawet uczestniczyć w dyskusji, to samo wnioskowanie odbywa się krok-po kroku na grafie argumentacji. Dzięki temu podejmowane decyzje są logiczne, weryfikowalne, łatwe do poprawy samodzielnie lub w grupie oraz godne zaufania.

Zestrojenie AI
z wartościami ludzkości

Od zestrojenia wartości AI i ludzkości (AI Alignment) zależy, czy cele i działania sztucznej inteligencji będą zbieżne z celami i działaniami ludzkości. W Swarmcheck dbamy o AI alignment dostarczając wiedzę o tym, jak ludzie między sobą uzgadniają własne stanowiska w racjonalnej dyskusji. Proces grupowego mapowania argumentacji pozwala ujawnić oraz zaadresować idee, wartości pomysły i krytykę wszystkich uczestników.

Chcemy sztuczna inteligencja, nawet jeśli osiągnie zdolności przewyższające ludzkie, również brała pod uwagę zdanie jednostek i efektów dobrej współpracy. Idee i wnioskowania o wartościach wyrażone na mapach argumentacji dostarczają wiedzy o wspólnym rozwiązywaniu problemów. Dane te są niebywale cenne dla trenowania AI, aby odwzorowywała dobrze przemyślane, ludzkie wartości we własnych procesach decyzyjnych.

Naszym zdaniem, najbardziej etyczne i bezpieczne podejście rozwoju sztucznej inteligencji polega na połączeniu jej z ludzką inteligencją zbiorową.