Młody geniusz
- Związek między systemami obliczeniowymi a mózgiem stanowił motywację dla pionierskich teoretyków od czasów Johna von Neumanna i Alana Turinga. Jednorodne, bezskalowe sieci biologiczne, takie jak mózg, posiadają potężne właściwości, w tym generalizację w czasie, co stanowi główną barierę dla uczenia maszynowego na drodze do uniwersalnych modeli rozumowania – napisali 30 września w publikacji na stronie amerykańskiego Uniwersytetu Cornella polscy naukowcy, dodając, że ta bariera została przez nich złamana.
To naukowcy z polskiego startupu Pathway, a jednym z nich jest gdańszczanin dr hab. Adrian Kosowski (rocznik 1986), matematyk, fizyk i informatyk, absolwent Politechniki Gdańskiej i Uniwersytetu Gdańskiego, laureat m.in. Nagrody Miasta Gdańska dla Młodych Naukowców im. Jana Uphagena z roku 2010 za wybitny dorobek naukowy z zakresu algorytmicznej teorii grafów.
To postać nietuzinkowa światowej nauki. Podstawówkę zrobił w 4 lata, ogólniak (III LO) w – 3, zdając maturę w wieku 13 lat. Doktorat obronił jako 21-latek na Politechnice Gdańskiej, zaś habilitację uzyskał na Uniwersytecie Bordeaux.
Teraz, wraz z Zuzanną Stamirowską, prezeską zarządu wartego obecnie dziesiątki milionów dolarów startupu Pathway, odkrył nowy model AI, znajdując pomost pomiędzy ludzkim mózgiem a technologią transformer (architektura uczenia głębokiego opracowana przez Google).
Sławosz Uznański-Wiśniewski w Gdańsku
AI jak ludzki mózg
O przełomie napisał na początku października portal mycompanypolska.pl na podstawie wywiadu przeprowadzonego z Adrianem Kosowskim przez dr. Macieja Kaweckiego na kanale YT This is it – Maciej Kawecki.
- Rozwiązali najważniejszy problem współczesnej AI - problem generalizacji. Nad tym pracuje dziś każde liczące się laboratorium AI na Ziemi – tłumaczy Maciej Kawecki. - Stworzona przez Polaków nowa, nieznana nauce architektura AI imituje bezskalową, biologiczną sieć neuronową. Obsługuje fundamentalny problem generalizacji w czasie, główną barierę dla uczenia maszynowego. Model tworzy strukturę podobną do sieci neuronów w mózgu. Pojawia się spontanicznie podczas treningu i przypomina zachowanie kory nowej, zewnętrznej warstwy mózgu, występującej tylko u ssaków, która odpowiada za funkcje poznawcze wyższego rzędu, takie jak percepcja, pamięć, uczenie się i podejmowanie decyzji.
Jak wyjaśnia popularyzator nauki, generalizacja w czasie jest zdolnością do rozumowania, uczenia się na podstawie doświadczeń i formułowania subiektywizmu, przewidywań na podstawie nowych informacji. To fundamentalna właściwość ludzkiej inteligencji.
Czy nanocząsteczki zmienią medycynę? Rozmowa z dr. n. med. Karolem Steckiewiczem
Maciej Kawecki: - Dzisiejsze modele oparte na transformatorach są potężne, ale statyczne: doskonale dopasowują się do wzorców z danych z przeszłości, ale mają ograniczoną zdolność do rozszerzania swojego rozumowania na nowe konteksty. Dlatego modele działające w oparciu o konteksty spoza bazy treningowej, działają znacznie gorzej. Adrian zmapował, w jaki sposób inteligencja pojawia się w mózgu, co umożliwiło mu stworzenie sztucznego systemu rozumowania z modelem wykonania przypominającym mózg.
- Do pokoju przybiegł mój synek i powiedział, mamo mamo to ma mózg. Przyszliśmy i zobaczyliśmy jakby scan mózgu naszego modelu. Zobaczyliśmy strukturę, która nie była zadana przez nas. Powstała sama. Zobaczyliśmy po raz pierwszy emergencję i wtedy wiedzieliśmy, co stworzyliśmy – mówi w rozmowie z Maciejem Kaweckim Zuzanna Stamirowska.
Polski zespół udostępnił światu nowy paradygmat Sztucznej Inteligencji nazwany „Dragon Hatchling” (BDH) czyli „pisklę smoka”, 1 października, o godzinie 17:00 czasu polskiego, w Dolinie Krzemowej w USA.
- To pokaz tego, że to Polacy piszą rewolucję AI. A największą satysfakcję mam z tego, że kolejny rozdział AI nie powstał w BigTechu, za miliardy dolarów. Powstał jako efekt intelektualnego geniuszu – dodaje dr Maciej Kawecki.
OBEJRZYJ WYWIAD Z MACIEJA KAWECKIEGO Z ADRIANEM KOSOWSKIM: