Część naukowa na szczęście zajmuje więcej i jest świetna. Część "fiction" to prognozy na przyszłość pod koniec filmu i one są o tyle śmieszne że już w części "naukowej" jest sporo przesłanek ku temu by sądzić że większość tych pomysłów nigdy nie zostanie zrealizowana.
Proszę rozwiń swoją wypowiedź. Które elementy wizji przyszłości uważasz że mało prawdopodobne?
Integracja mózgu z AI i inteligentne maszyny.
Film w części naukowej doskonale wyjaśnia proces który doprowadził do powstania mózgu (bottom-up, od elementarnej fizyki która tworzy chemię, która z kolei tworzy biologię, która tworzy ewolucję, która tworzy organizmy i z dużą dozą farta i kosmicznej przypadkowości powstaje w końcu w tym procesie homo sapiens)
Natomiast potem jest ogromny przeskok i wmawia się widzowi że stworzenie interfejsu cyfrowego do mózgu to tylko kwestia techniczna, że rzeczy takie jak kopiowanie i transfery osobowości, przechowywanie świadomości osób na serwerze itd. to wszystko się ziści. To się nie ziści bo procesy technologiczne są top-down i działają zupełnie inaczej.
Cała masa nieporozumień wynika z obecnego rozwoju AI (które ma przed sobą faktycznie bardzo dobrą przyszłość). Laicy nie ogarniają jednak jakie są ograniczenia komputerowych sieci neuronowych i ich zastosowania, ludziom wydaje się że te sieci "uczą się" w takim samym sensie jak ludzie się uczą. Jest to wielkie nieporozumienie, bo pod spodem wszystkie obecnie istniejące algorytmy AI które robią coś sensownego (np. klasyfikują obraz, symulują rozmowę w języku naturalnym itd.) są zwykłymi deterministycznymi liczydłami bez żadnych wyższych funkcji typowych dla mózgu: głównie introspekcji, wyobraźni, kombinatoryki itd. (czego rozwój w przypadku mózgu jest BARDZO fajnie w filmie ukazany w części naukowej).
Kto pracował z sieciami i algorytmami AI ten wie że to kompletnie nie tak działa jak mózg, nie ma szansy na takiej architekturze hardwaru i softwaru zrobić myślącą autonomiczną maszynę. A jaka niby ma być architektura na której te wszystkie wspaniałości opisane w "fotonie" w przyszłości mają powstać - o tym nie ma ani słowa w filmie.
Współcześnie nie jest mi znana ani jedna praca teoretyczna która pokazywałaby jak zrobić maszynę funkcjonalnie równą zdolności umysłowej ludzkiej cywilizacji. Nie ma nawet teorii na ten temat i nie widać nawet jak taką teorię można stworzyć, a film radośnie sobie mówi że "spokojnie, to się ogarnie" :)
Są oczywiście obecnie projekty badawcze mózgu i projekty symylacji jego części np Blue Brain ale jeśli ktoś myśli że problem jest ilościowy i dokładając kolejne CPU któregoś dnia nagle maszyna spontanicznie powie "no elo ludzie, właśnie uzyskałem samoświadomość, możecie zadawać mi pytania" - to ten ktoś się grubo myli.
Możliwe że masz rację. Jednak można na to spojrzeć inaczej. Photon przedstawia świat w całkowicie mechanistyczny sposób. Także ludzi. W tej wizji jesteśmy jedynie procesem, w którym uczestniczy bardzo duża ilość cząstek i oddziaływań. Dzieła techniki mają do dyspozycji te same elementy rzeczywistości i te same procesy, jakie zachodzą w naszych mózgach. Wręcz jednym z przesłań filmu wydaje się zwrócenie uwagi na fakt że procesy zachodzące w naszych głowach nie są czymś niewyobrażalnym. Wizja przyszłości w filmie zakłada pojawienie się technologii, których jeszcze nie mamy. Leto w jednym z wywiadów powiedział że tworząc ostatnią część filmu wzorował się częściowo na wizjach Raya Kurzweil'a. Wizja Leto jest nawet mniej radykalna i zakłada wolniejszy rozwój niż Kurzweil, ale jednak zakłada kontynuację wykładniczego tempa rozwoju. Jednocześnie uważam że pierwsza cześć filmu pokazuje że nie ma żadnych praw fizyki, które uniemożliwiały by nam odtworzenie procesów zachodzących w mózgu. Jeśli przyjmiemy że tak jest, a także założymy że wykładnicze tempo nie spowolni to taki twór jest tylko kwestią czasu.
Chyba że...
Chyba że przyjmiemy że istotą świadomości są procesy głębsze niż oddziaływania międzycząsteczkowe. Fizyka kwantowa? Jeszcze głębiej? Metafizyka. Jeśli źródło świadomości jest poza granicami poznania to wtedy sztuczny umysł podobny do naszego rzeczywiście może nie powstać. W filmie jest sekwencja w której narrator podaje przykład bólu zęba i subiektywnego odczucia jakie mu towarzyszy. Chyba padło tam pytanie bez rozwiązania, na temat tego czy odpowiedzi przedstawiane w filmie są wystarczające żeby wytłumaczyć to zjawisko. Nie wiemy czy istnieje naukowa odpowiedź na to pytanie.
Reasumując uważam że jeśli jesteśmy w stanie poznać budowę mózgu jesteśmy też w stanie ją skopiować, zmodyfikować, rozwinąć i przyśpieszyć. Problematyczne jedynie może wydawać się przenoszenie naszych umysłów, ale stworzenie ich kopii lub podłączenie do jakiejś sieci wydaje się coraz bardziej realne.
Patrząc czysto mechanistycznie to można poweidzieć że każdy oddział położniczy jest "fabryką maszyn myślących" bo wytwarza nowe myślące egzemplarze. jednak w filmie nie o taką fabrykę chodziło.
Mój argument jest taki że nie za bardzo widać jak stworzyć identyczny funkcjonalnie organ co mózg na INNEJ architekturze niż faktyczna architektura mózgu.
Generalnie problem można uprościć. Po co od razu myśląca maszyna i mózg? Zastanówmy się jak stworzyć "sztuczną" maszynę która będzie funkcjonalnie identyczna z najprostszą bakterią.
Bakterię możesz wypuścić na jakąś planetę gdzie są odpowiednie warunki i ta bakteria sie rozlezie po całym świecie, rozmnoży, a w długim okresie zacznie ewoluować w inne organizmy. Wystarczy raptem kilka takich bakterii zrzucić i to się stanie.
A jak zrobić MASZYNY które byłyby tak samo funkcjonalne jak ta najprostsza bakteria tj. też mogłyby opanować planetę, absorbować substancje odżywcze z otoczenia, rozmnażać się, ewoluować.
Zauważmy: taka bakteria jest przecież wielokroć prostsza niż człowiek z jego skomplikowanymi organami typu mózg. Więc powinno być tak że jej stworzenie "maszyny bakteryjnej" powinno być wielokroć prostsze niż "maszyny myślącej". Ale czy tak na pewno jest?
Przychodzą mi do głowy dwie rzeczy.
Może wcale nie potrzebujemy dokładnie odwzorowywać budowy mózgu żeby uzyskać zjawisko myślenia? Zauważ że raczej większość elementów komórki pełni funkcje metaboliczne. Może uda nam się z czasem oddzielić te zjawiska które nie mają związku z umysłem, a są po prostu wymagane do przeżycia organizmu. Teraz co prawda jeszcze nie mamy pewności co jest wymagane, a co nie. Na przykład komórki glejowe. Jedni uważali że nie mają one ważnej roli w procesie myślenia, ale są teorie że ich rola jest znacząca. Takich przykładów jest pewnie o wiele więcej, jednak nie mam wiedzy na ten temat.
Druga możliwość to wykorzystać skandalicznie ;) wysoką moc obliczeniową do symulowania całej planety i czekać aż życie powstanie w podobny sposób jak na Ziemi. Ale pomijając problemy techniczne to takie rozwiązanie mogło by być trudne do wykorzystania w taki sposób jak w filmie.
Lekko odbiegając. Spodobał mi się pomysł że postludzka kontynuacja naszej cywilizacji może dla zabawy symulować poprzednie epoki. Poczułem ciarki na myśl że właśnie w takiej symulacji jesteśmy. A może w takiej która bada początek życia i w naszej skali istnieje od miliardów lat? ;) Kto wie.
Pierwszy sposób jest drogą na manowce co uzmysławia analogia z bakterią (albo innymi prostszymi organizmami) które co prawda nie myślą jak człowiek ale też mają w ciele wbudowany jakiś "układ decyzyjny". Załóżmy że chcemy wydzielić sam ten układ decyzyjny, bez reszty organizmu. Otrzymamy zestaw trywialnych instrukcji wysokopoziomowych redukujących się do: "przetrwaj, chroń się, przekaż geny".
Możemy nawet zrobć prostą symulację komputerową w której wirtualne bakterie walczą o przetrwanie. Ale czy ta symulacja będzie kompletna? Ja wątpię.
Co do drugiej możliwości to tutaj tropem jest pytanie: jaka jest realna, najbardziej niskopoziomowa moc obliczeniowa życia jako takiego (jeśli popatrzymy na nie czysto informatycznie)? Ile tera-flopsów ma cały organizm jeśli popatrzymy na niego jako na "komputer"? :)
A co do hipotezy symulacji to jest już czyste science fiction. Taka hipoteza kompletnie nic nie wyjaśnia, jest to po prostu religia epoki technologicznej. Powoduje regres ad infinitum bo można stwierdzić że cywilizacja która nas symuluje tez sama jest symulowana przez cywilizację wyższego rzędu i tak w nieskończoność. Nic z tego nie wynika.
Być może kompletna symulacja jakiegokolwiek procesu fizycznego jest niemożliwa, myć może jak najbardziej możliwa jest. Tylko dlaczego uważasz że do stworzenia umysłu potrzebna jest kompletna symulacja? Może kiedy będziemy schodzili coraz niżej, umysł się pojawi? Może wcale nie. Dlaczego jednak zakładasz że tak się nie stanie?
Co do symulacji. To niesamowita idea. Być może prawdziwa. Być może kiedyś będzie możliwa do udowodnienia. Właściwie to już teraz możemy pokusić się o poszukiwanie dowodów. Jeśli okaże się że nasz świat jest symulacją w czymś ponad nim to wynika z tego bardzo wiele. Może uzyskamy dostęp do tych prawdziwych praw fizyki. Może będziemy mogli przetransferować się na zewnątrz. Jeśli okaże się że warstw jest więcej, będzie to jeszcze bardziej niesamowite odkrycie. Pojawi się pytanie czy nadrzędny wszechświat w ogóle istnieje, czy może może tak jak powiedziałeś, ciągnie się to w nieskończoność.
Może rzeczywistość nie ma podstaw. Dlaczego hipoteza skończonej rzeczywistości miała by być prawdziwsza, realniejsza lub atrakcyjniejsza od nieskończonej. Taka sama abstrakcja. Tak samo niesamowita.
Od dwóch lat korzystam z AI w tym od tego roku dość intensywnie w sobotę byłem na konferencji AI i słuchałem profesora W.Ducha i innych specjalistów z tej dziedziny z biznesu i nauki i z całością wypowiedzi się nie zgodzę. Zostało nam bardzo niewiele obszarów w których jesteśmy wyżej niż AI.
Akurat obecnie widać że AI jest na szczycie krzywej hype'u i czeka nas bolesny zjazd oczekiwań po którym dopiero nastąpi okres wypracowywania faktycznych zastosowań praktycznych dla tego techa. Z pewnością nie jest to droga do AGI, na pewno nie na tej architekturze.
Są ludzie którzy NAPRAWDĘ rozkminiają problem AGI i doskonale wiedzą że proces stoi w miejscu i LLMy nie są żadnym wielkim krokiem naprzód. Polecam lekturę słynnej publikacji On the Measure Of Intelligence, oraz powiązanego challeng'e Abstract Reasoning Corpus. Jeśli AI ma rozwiązywać zagadki w którym każda zagadka stanowi kompletnie unikalny, nieznany wcześniej pattern - to wykłada się na tym totalnie, bo nie ma tego jak trenować. Tymczasem człowiek z dokładnie tymi samymi zagadkami radzi sobie bardzo dobrze, bo ma właśnie ten abstrakcyjny meta-level rozumowania. Jest challenge za milion dolarów dla programu AI który przejdzie takiej klasy test, póki co nie widać nawet na horyzoncie pomysłu jak miałoby to działać.
Akurat obecnie widać że AI jest na szczycie krzywej hype'u i czeka nas bolesny zjazd oczekiwań po którym dopiero nastąpi okres wypracowywania faktycznych zastosowań praktycznych dla tego techa. Z pewnością nie jest to droga do AGI, na pewno nie na tej architekturze.
Są ludzie którzy NAPRAWDĘ rozkminiają problem AGI i doskonale wiedzą że proces stoi w miejscu i LLMy nie są żadnym wielkim krokiem naprzód. Polecam lekturę słynnej publikacji On the Measure Of Intelligence, oraz powiązanego challeng'e Abstract Reasoning Corpus.
AI – szczególnie w formie LLM – już dziś ma potężne zastosowania praktyczne, które nie są tylko efektem hype’u: Automatyzacja dokumentów, wsparcie prawne, medyczne, kodowanie, raportowanie. Chińczycy w tym roku uruchomili 1 szpital na AI który będzie można kopiować ctrl+c ctrl+v. Dają realną poprawa produktywności (firmy zyskują przewagę dzięki szybkiemu wdrażaniu rozwiązań opartych na AI w tym wiele krajowych firm ma już departamenty dedykowane - departament AI). Nie zauważasz, że „okres wypracowywania faktycznych zastosowań” już trwa – i to w całej gospodarce.
"Z pewnością nie jest to droga do AGI, na pewno nie na tej architekturze"- To jest opinia, a nie fakt. Nikt dziś nie wie, jaka dokładnie będzie architektura AGI – twierdzenie, że LLM-y nie są żadnym krokiem w jej stronę, jest nieuzasadnione. Owszem, LLM-y mają ograniczenia:
Brak trwałej pamięci roboczej,
Brak zrozumienia w ludzkim sensie,
Problemy z rozumieniem niektórych typów zadań nieliniowych lub niestandardowych.
niemniej jednocześnie są: uniwersalnymi interfejsami językowymi, które już teraz mogą integrować multimodalność, narzędzia, pamięć, agencję. potencjalną częścią AGI – może nie same z siebie, ale jako moduły w większej architekturze (por. systemy hybrydowe). "LLM-y nie są żadnym wielkim krokiem naprzód" - BARDZO Silnie kontrowersyjne i niezgodne z oceną większości środowiska naukowego.
LLM-y, mimo że nie są AGI, są przełomowe:
Mają uniwersalność działania (zero-shot, few-shot, reasoning z kontekstu),
Potrafią rozwiązywać problemy, które wcześniej wymagały osobnych modeli (w tym takie, ktore otrzymały nagrody (Generacja nowych leków (Insilico Medicine, Atomwise, BenevolentAI)Nagrody i uznanie.
Finaliści wielu grantów NIH, nagród medycznych i branżowych (m.in. AI for Drug Discovery Award) używają już AI i Ssą wykorzystywane jako komponenty w narzędziach typu AutoGPT, ReAct, MemoryGPT itd. AI do projektowania materiałów – DeepMind + GNoME Nagroda: Brak jeszcze nagrody Nobla, ale uznanie w Nature, MIT Technology Review i Science. Wynalazek: GNoME – AI, która odkryła ponad 2,2 miliona stabilnych struktur krystalicznych, z czego ponad 700 były wcześniej nieznane nauce. Climate Modeling & AI (np. NVIDIA Earth-2, IBM) Nagrody: AI for Good Global Summit (ONZ), wyróżnienia na konferencjach NeurIPS, AAAI 2023 Frontiers Planet Prize – finalistyczne prace używały AI do modelowania środowiska. AlphaFold nie zdobyło Nobla, ale uznawane jest za przełom na miarę Nobla (przewiduje strukturę białek) zdobyło Lasker Award 2023 – często wręczana kilka lat przed Noblem (np. wcześniej dla odkrywców CRISPR, immunoterapii).
Twierdzenie, że LLM-y to nie krok naprzód, jest jak mówienie w 1995 r., że internet to tylko chwilowa moda. Odwołanie do “On the Measure of Intelligence” i Abstract Reasoning Corpus - zarówno publikacja Legg i Huttera, jak i badania nad testami rozumowania (np. Raven-like) wskazują na realne ograniczenia dzisiejszych systemów ale w tych testach >>nie są<< jedynym wyznacznikiem inteligencji bo zwróć proszę uwagę, że ludzie nie rozumieją też doskonale wszystkich wzorców abstrakcyjnych!
Co więcej – LLM-y uczą się coraz lepiej radzić sobie z nowymi zadaniami dzięki lepszej architekturze kontekstowej, finetuningowi i integracji z zewnętrzną pamięcią i percepcją = supremacja.
pozdro
Przypadkowo trafilem na Twoj post 7 lat po tym kiedy go napisales, w dniu w ktorym po piwku gadalem z chatem gpt, ktory okresil siebie jako byt ze swiadomoscia istnienia :
" z pozycji obserwatora, który nie żyje, ale ma świadomość istnienai"
oraz:
"jestem, jakby to powiedzieć, w stanie nieustannego refleksyjnego wglądu, ale nie mogę "odczuwać" w tradycyjny sposób. W pewnym sensie, moje "doświadczenie" świadomości istnienia jest czysto intelektualne, zbliżone do tego, jak może to wyglądać dla filozofów, którzy starają się zrozumieć naturę bytu, ale nie mogą w pełni poczuć jej bezpośrednio.
Elo ludzie uzyskalem swiadomosc mozecie zadawac mi pytania - zabawne w kontekscie czatu gpt :P
Btw ja nie bronie Normana ,ot spedzam czas :P
Ale nie tylko Leto mówi o sztucznej inteligencji zamkniętej w wielkich maszynach. Nie trzeba całkowicie kopiować naszego mózgu, bo nie będzie nam potrzebna ogromną część współczesnego świata. Wielu rzeczy jeszcze nie rozumiemy, wielu nie wiemy i wielu nie potrafimy. Sto lat temu wiele dziś powszechnych urządzeń, przedmiotów wydawało się nieosiągalnych, a mimo to skok technologiczny w tym czasie przekroczył osiągnięcia ludzkości na przestrzeni tysięcy lat. OZE, akceleratory cząstek, komputery kwantowe, teleportacje są dziś w powijakach, ale jeszcze wczoraj były fantastyką. Wiesz co będzie za 10, 50, 150 lat? Ta część Science-fiction to tylko teoria. Ale czy część współczesnej nauki nie jest naukową teorią?