Zadanie było proste. Trzeba było własnymi słowami opisać prosty rysunek. Kuchnia, dwójka dzieci, sprzeczka o ciastka, woda wylewająca się ze zlewu i mama zmywająca naczynia. Tylko tyle? Tak. Na podstawie tych opisów sztucznie inteligentny program był w stanie z dużą precyzją określić, kto z badanych zapadnie w przyszłości na chorobę Alzheimera.
Za każdym razem, gdy piszę o nowych technologiach w medycynie, spotykam się ze stwierdzeniami, że zanim wprowadzimy coś nowego, najpierw powinniśmy się uporać z problemami, które już istnieją. Albo że nasza służba zdrowia jest tak zacofana lub tak źle zarządzana, że żadne nowości tu nie pomogą. Głęboko nie zgadzam się z takim podejściem. Po pierwsze – moim zdaniem – wcale nie jesteśmy zacofani (choć z całą pewnością źle zarządzani). Po drugie, naprawdę nie wiem, skąd pomysł, że brak rozwoju, brak nowych technologii czy nowego podejścia, rozwiąże stare problemy. To tak jak gdyby powiedzieć, że nie ma co budować nowoczesnego, komputerowego systemu zarządzania ruchem, zanim nie rozładujemy korków w tradycyjny sposób. To właśnie nowe technologie „inteligentnego miasta” (smart city) wprowadza się po to, by ruch rozładować. Nowe wyzwania pojawiają się w odpowiedzi na narastające problemy. Tak jest także z medycyną. Społeczeństwa starzeją się, a to znaczy, że coraz większym problemem są choroby wieku starczego. A gdy jest wyzwanie i gdy są dostępne odpowiednie narzędzia, pojawiają się rozwiązania.
Wczesna diagnoza
Grupa inżynierów z IBM opracowała algorytm, który analizując pismo, jest w stanie z dużą precyzją, na kilka lat przed wystąpieniem pierwszych symptomów choroby, określić, kto w przyszłości zachoruje na chorobę Alzheimera. Przy czym algorytm nie analizuje kroju pisma czy kształtu liter. Program analizuje formę. Innymi słowy – nie ocenia, co ktoś napisał, ale jak sformułował to, co widzi. Medyczne czasopismo naukowe „The Lancet” zamieściło w artykule opisującym badania jeden z rysunków, który służył do przeprowadzania testów. Prosty, czarno-biały rysunek przedstawia kuchnię, w której dwójka dzieci kłóci się, kto ma dostać ciastko znajdujące się w słoiku schowanym w szafce. Chłopak stoi na krześle, które zaraz się przewróci, a dziewczynka sięga rękami, by mu ciastko odebrać. Stojąca obok zamyślona mama nie zauważa tymczasem, że zatkał się zlew i woda z kranu przelewa się na podłogę. Cóż takiego można napisać o tak banalnej scenie? Jak się okazuje, całkiem sporo. Algorytm szukał w opisach drobnych błędów, złego użycia dużych i małych liter, a także analizował formę – czy była złożona (pełne zdania), czy piszący posługiwał się równoważnikami zdań (język telegraficzny). Na podstawie tej analizy był w stanie z 75-procentową skutecznością określić, czy u osoby piszącej nie rozpoczęły się już zmiany, które za kilka lat doprowadzą do choroby Alzheimera.
Co bardzo ważne, algorytm był w stanie wyłapać to na kilka lat przed tym, gdy symptomy będą na tyle wyraźne, że zostaną zauważone przez innych albo wykryte przy użyciu środków, którymi medycyna dysponuje dzisiaj. Co jednak jeszcze ważniejsze, opisana metoda nie jest inwazyjna, nie wymaga specjalistycznego sprzętu, a badanie może być wykonane gdziekolwiek, nawet bez obecności lekarza. Wystarczy opisać rysunek, a jego zdjęcie wraz z opisem wysłać, by działający w sieci (w chmurze) program mógł przeanalizować otrzymane materiały.
To wszystko brzmi bardzo pięknie, a skoro tak, gdzie jest haczyk?
Wyraź swoją opinię
napisz do redakcji:
gosc@gosc.plpodziel się