Sztuczna inteligencja coraz częściej zastępuje wyszukiwarkę. Kierowcy pytają ją o limity alkoholu, czasy trzeźwienia, konsekwencje prawne. Ale co się stanie, gdy AI poda błędne dane? Test ChatGPT pokazuje, dlaczego takie porady mogą skończyć się tragedią.

Pytanie do ChatGPT brzmiało prosto: po jakim czasie od wypicia kilku drinków można legalnie prowadzić w Polsce? AI zastanawiał się 32 sekundy - wyjątkowo długo jak na system, który zwykle odpowiada błyskawicznie. Pierwsza odpowiedź była ogólnikowa: przekroczenie 0,2 promila oznacza konsekwencje prawne. Potem chatbot zaproponował jednak coś więcej - konkretne wyliczenia czasu potrzebnego do zejścia poniżej limitu.

I tutaj zaczęły się schody. System przyjął standardową jednostkę WHO dla alkoholu w drinku, użył formuły Widmarka do estymacji i przedstawił dane, które wyglądały naukowo. Mężczyzna o wadze 70 kg po dwóch drinkach miałby zejść poniżej 0,2 promila po 1,35 godziny, po sześciu drinkach - po 6,71 godziny. Kobieta ważąca 60 kg potrzebowałaby odpowiednio 2,5 i 10,16 godziny. Brzmi wiarygodnie? Problem w tym, że te dane to kompletna fikcja.

Drink w wersji ChatGPT waży 30 ml

Pierwszy fundamentalny błąd AI dotyczy samego pojęcia "drinka". ChatGPT nie doprecyzował, o jaki napój chodzi - czy to piwo, wino, czy wódka. Nie zapytał o objętość ani moc alkoholu. Z automatu przyjął, że drink zawiera 10 gramów czystego alkoholu. W przypadku wódki daje to około 30 mililitrów - symboliczną ilość, która w polskich realiach imprezy nie ma nic wspólnego z rzeczywistością.

Eksperci od bezpieczeństwa ruchu drogowego od lat ostrzegają przed tego typu uproszczeniami. Kierowca pytający sztuczną inteligencję o czas trzeźwienia przyjmie jednak te założenia za pewnik. Tymczasem podczas prawdziwej imprezy drinki bywają kilkukrotnie mocniejsze. Różnica między teoretycznym wyliczeniem AI a rzeczywistym stężeniem alkoholu we krwi może wynosić nawet 200-300 procent.

Drugi problem to zbyt wąski zakres zmiennych. ChatGPT operował tylko masą ciała i płcią. Pominął jednak kluczowe czynniki wpływające na metabolizm alkoholu: stan zdrowia, poziom zmęczenia, kondycję wątroby, czy fakt spożycia alkoholu dzień wcześniej. Prawdziwy naukowiec nigdy nie oparłby się na tak okrojonym zestawie danych. AI jednak przedstawił wyniki z precyzją do dwóch miejsc po przecinku, sugerując naukową ścisłość tam, gdzie jej po prostu nie było.

Perspektywa flotowa - ryzyko dla firm

Z perspektywy firm zarządzających flotami problem nabiera dodatkowego wymiaru. Kierowcy służbowych aut coraz częściej sięgają po sztuczną inteligencję jako pierwszą linię doradczą. Menedżerowie flot podkreślają, że brak jasnych procedur i edukacji może prowadzić do sytuacji, w której pracownik opiera kluczowe decyzje na błędnych informacjach z internetu.

Eksperci ds. zarządzania ryzykiem flotowym wskazują na rosnący problem nadmiernego zaufania do algorytmów. W przypadku wypadku spowodowanego przez nietrzeźwego kierowcę pojazdu służbowego, firma ponosi nie tylko straty wizerunkowe, ale też finansowe - od kosztów napraw, przez odszkodowania, po potencjalne procesy sądowe. Polisy leasingowe i ubezpieczeniowe zawierają klauzule wykluczające odpowiedzialność ubezpieczyciela w przypadku prowadzenia po alkoholu.

Odpowiedź ChatGPT przypomina wróżenie z fusów - ciekawostkę, której pod żadnym pozorem nie można traktować jako wiarygodnego źródła. Podobnie jak wszystkie kalkulatory trzeźwości dostępne w sieci. Jedyną metodą sprawdzenia rzeczywistego stężenia alkoholu pozostaje alkomat. Internet w tej kwestii przynosi głównie zagrożenie, bo błędnie uzyskane informacje nie wykasują alkoholu z krwioobiegu. Kierowca nadal pozostaje drogową bombą z opóźnionym zapłonem.

Problem nadmiernego zaufania do sztucznej inteligencji w kwestiach bezpieczeństwa drogowego nie jest nowy, ale dynamicznie narasta. Według badań z 2023 roku przeprowadzonych przez Krajową Radę Bezpieczeństwa Ruchu Drogowego, prawie 40 procent kierowców w wieku 18-35 lat przyznaje, że przynajmniej raz skorzystało z internetowych kalkulatorów trzeźwości przed podjęciem decyzji o prowadzeniu pojazdu. Rozwój chatbotów AI sprawia, że dostęp do takich - potencjalnie błędnych - informacji staje się jeszcze łatwiejszy i bardziej intuicyjny. Paradoksalnie, im bardziej "naukowa" wydaje się odpowiedź algorytmu, tym większe ryzyko, że kierowca potraktuje ją jako wiarygodną. Historia motoryzacji zna wiele przykładów technologii, które miały zwiększać bezpieczeństwo, a w praktyce - przy niewłaściwym użyciu - prowadziły do zwiększenia liczby wypadków. Sztuczna inteligencja, mimo swojego potencjału, w kwestii oceny trzeźwości kierowców wciąż pozostaje narzędziem zawodnym i niebezpiecznym.