Ogłasza przełomowy test ludzkiej inteligencji. Turing się mylił | Andrew Ng

 

hciałbym zrozumieć na czym polega
00:00:02 istota inteligencji. Dla mnie
00:00:04 zdumniewającą rzeczą w ludzkim mózgu,
00:00:06 zakładając, że człowiek jest czymś w
00:00:08 rodzaju AI, tylko że nie sztuczną, ale
00:00:10 nadal ogólną inteligencją, jest jego
00:00:13 plastyczność, czyli zdolność uczenia
00:00:15 się. A to coś, co staje się tak
00:00:17 inteligentne jak człowiek w bardzo
00:00:19 ogólnym sensie. Uważam, że temat AGI nas
00:00:22 rozprasza. Pan Elizer Jutkowski mówi,
00:00:25 cytuje: "Jeśli ktoś zbuduje AGI, wszyscy
00:00:28 zginiemy".
00:00:30 Realistycznie sądzę, że dzielą nas od
00:00:32 tego dekady. W historii AI widzieliśmy
00:00:34 już kilka zim AI, kiedy to ludzie w
00:00:37 dobrej wierze przesadnie rozdmuchiwali
00:00:40 obietnice. Prowadziło to do zawyżonych
00:00:42 oczekiwań, które nie zostały spełnione,
00:00:44 a potem do załamania inwestycji i
00:00:46 zainteresowania. Właśnie zaproponował
00:00:48 pan dziś nową wersję testu Turouringa.
00:00:50 To był świetny pomysł jak na 1950 rok,
00:00:53 ale ten test naprawdę nie mierzy
00:00:56 inteligencji w sposób, w jaki dziś o
00:00:57 niej myślimy. W wielu pracach AI może
00:01:00 przejąć 30 do 40% obowiązków. Czy może
00:01:03 pan przewidzieć, które zawody mogą
00:01:05 ostatecznie zniknąć?
00:01:09 Andrew NG jest ojcem ery skalowania
00:01:12 sztucznej inteligencji. Jako założyciel
00:01:15 Google Brain i słynnej platformy Kursera
00:01:17 wpłynął na świadomość w obszarze AI
00:01:20 wobec dziesiątek milionów ludzi. Jego
00:01:22 badania cytowano w 300 000 publikacji
00:01:25 naukowych. Stoi za legendarnym
00:01:27 eksperymentem, w którym sieć Neuronowa
00:01:29 ucząc się na filmach z YouTube sama
00:01:31 odkryła, czym jest kod, bez żadnych
00:01:34 etykiet i instrukcji. Moment, który
00:01:36 symbolicznie pokazał, że maszyny
00:01:38 zaczynają uczyć się jak ludzie, a nie
00:01:40 tylko wykonywać polecenia. Był mentorem
00:01:43 Sama Altmana i wielu innych
00:01:45 współczesnych twórców AI. W otwartej
00:01:47 rozmowie mówi nam jak dziś zmienia się
00:01:50 świat AI, co przyniesie rok 2026 i
 

Transcript on Demand

Extract YouTube video transcripts with a simple API call or through Model Context Protocol

Get YouTube Transcript API

00:01:53 odważnie wymienia zawody, które znikną z
00:01:56 mapy świata w najbliższym czasie.
00:02:00 Muszę pana zapytać o spór między Janem
00:02:03 Lekunem a Demisem Hasabisem.
00:02:06 Lekun uważa, że ludzka inteligencja jest
00:02:09 wyspecjalizowana, nie ogólna. Hasabis
00:02:12 twierdzi, że mózg w sensie obliczeniowym
00:02:15 to ogólny uczący się system.
00:02:26 Po której stronie stoi pan w tej
00:02:28 kwestii?
00:02:31 Wie pan, może coś mi umyka, ale nie
00:02:32 widzę tu sprzeczności. Dla mnie
00:02:34 zdumiewającą rzeczą w ludzkim mózgu,
00:02:36 zakładając, że człowiek jest czymś w
00:02:38 rodzaju AI, tylko że nie sztuczną, ale
00:02:41 nadal ogólną inteligencją, jest jego
00:02:43 plastyczność, czyli zdolność uczenia
00:02:46 się. I mamy wrażenie, że AGI w moim
00:02:48 rozumieniu powinno mniej dotyczyć AI,
00:02:51 która już wie wszystko na świecie. To
00:02:53 wydaje się bardzo trudne i mało
00:02:55 praktyczne. Natomiast to, co czyni
00:02:57 ludzki mózg tak wartościowym, albo jedną
00:03:00 z rzeczy, które czynią go tak
00:03:01 wartościowym w zasadnych ekonomicznie
00:03:03 zadaniach, to właśnie po prostu
00:03:05 umiejętność nauczenia się nowych rzeczy,
00:03:07 czegokolwiek akurat potrzeba. I to
00:03:09 poprzez uczenie się zdobywamy potem te
00:03:12 niesamowicie wyspecjalizowane
00:03:13 inteligencje. Na przykład ludzki mózg
00:03:16 nauczył się rozwiązywać niezwykle trudne
00:03:18 problemy matematyczne, kończąc doktorat
00:03:21 z matematyki. Mamy więc na końcu bardzo
00:03:23 wyspecjalizowaną inteligencję, ale jej
00:03:26 źródłem było uczenie się. A teoretycznie
00:03:29 ten sam mózg, tylko przy innym treningu,
00:03:32 mógłby zostać mistrzem szachowym albo
00:03:34 być niesamowity w grze w tenisa. Dlatego
00:03:37 dla mnie to, co czyni ludzki mózg tak
00:03:39 ogólnym, nie polega na tym, że mój czy
00:03:41 pana mózg zna już wszystkie rzeczy na
00:03:43 świecie, tylko na naszej zdolności
00:03:45 adaptacji, uczenia się bardzo szerokiego
00:03:47 zakresu rzeczy.
00:03:52 Czy to nie jest taka ukryta teza u
00:03:54 lekuna, że sama surowa ogólność nie
00:03:57 wystarcza?
00:04:00 Sama ogólność nie wystarczy. Tak. Tak.
00:04:03 Ale jak to przeczy temu, co mówił Demis?
00:04:07 Czyli jest pan po stronie Lekuna? Tak.
00:04:11 A jeszcze raz co powiedział Demis?
00:04:13 Demis Hasabis głęboko wierzył, że mózgi
00:04:16 są jakby ogólnymi mechanizmami uczenia
00:04:18 się w ujęciu obliczeń teoretycznych.
00:04:25 Myślę, że to też prawda. Mam wrażenie,
00:04:27 że jedną rzeczą, która naprawdę mnie
00:04:30 motywowała, kiedy tworzyłem zespół
00:04:32 Google Brain, była taka idea, o której
00:04:34 dziś ludzie już niewiele mówią, że
00:04:37 znaczna część ludzkiego uczenia się może
00:04:39 wynikać z jednego algorytmu uczenia się,
00:04:42 jakikolwiek by on nie był. Okazuje się,
00:04:44 że nasze DNA nie jest aż tak długie, a
00:04:47 więc DNA zawiera bardzo ograniczoną
00:04:50 ilość informacji. A mimo to nasze DNA
00:04:52 zakodowało biologię mózgu, a mózg jest
00:04:55 dość ogólnym algorytmem uczenia się.
00:04:58 Dlatego mózg może nauczyć się zrobić
00:05:00 doktorat z matematyki, albo nauczyć się
00:05:02 jeździć na motocyklu, albo nauczyć się
00:05:05 pisać na komputerze, czy też nauczyć się
00:05:07 pracować w call center. To dlatego, że
00:05:09 mózg ma ten bardzo ogólny algorytm
00:05:12 uczenia się, który pozwala mu poprzez
00:05:14 uczenie się wyspecjalizować się w
00:05:16 oszałamiająco szerokim zakresie. I
00:05:19 właśnie dlatego inteligencja wydaje się
00:05:21 ogólna. To ta zdolność uczenia się,
00:05:23 która pozwala zdobyć niemal każdą
00:05:25 specjalność pod słońcem.
00:05:34 Bardzo dużo mówi pan o AGI. Jeszcze 5
00:05:37 lat temu.
00:05:41 Jeszcze jedna rzecz. Tak, właściwie nie
00:05:44 lubię mówić o AGI, ale inni o niej sporo
00:05:46 mówią. Przecież nawet dziś pan o niej
00:05:48 pisał. Tak, ale mam wrażenie, że jako
00:05:50 liderzy w tej dziedzinie, gdy pojawia
00:05:52 się taka ogromna ilość, czy naprawdę
00:05:54 uważa pan, że AI i AGI to tylko moda, że
00:05:57 są przereklamowane,
00:06:00 są mocno rozdmuchane?
00:06:02 Rozumiem. Przynajmniej w opinii
00:06:04 publicznej AGI to coś, co staje się tak
00:06:07 inteligentne jak człowiek w bardzo
00:06:09 ogólnym sensie. Jesteśmy od tego bardzo
00:06:11 daleko. Mam nadzieję, że kiedyś tam
00:06:13 dotrzemy. Bardzo bym chciał dojść do
00:06:16 AGI, ale realistycznie sądzę, że dzielą
00:06:18 nas od tego dekady, a może nawet więcej
00:06:21 niż dekady. Dlatego pomysł, że tak
00:06:23 wystarczy jeszcze kilka kwartałów, żeby
00:06:25 dojść do AGI po prostu się nie ziści.
00:06:28 Chyba, że przedefiniuje się AGI tak, by
00:06:31 obniżyć poprzeczkę i uczynić ten cel
00:06:34 znacznie łatwiejszym do osiągnięcia. I
00:06:36 szczerze mówiąc w historii AI
00:06:38 widzieliśmy już kilka zim AI, kiedy to
00:06:41 ludzie w dobrej wierze przesadnie
00:06:43 rozdmuchiwali obietnice dotyczące AI.
00:06:46 Prowadziło to do zawyżonych oczekiwań,
00:06:48 które nie zostały spełnione, a potem do
00:06:50 załamania inwestycji i zainteresowania.
00:06:53 To było złe dla tej dziedziny. Dziś AI
00:06:56 działa naprawdę dobrze. Jest niezwykle
00:06:58 wartościowa. Widzę stosunkowo niewiele
00:07:00 rzeczy, które mogłyby wykoleić jej
00:07:03 impet. Jedną z rzeczy, o które naprawdę
00:07:05 się martwię, jest nadmierny szum, który
00:07:08 prowadzi do rozczarowania, a potem do
00:07:10 pęknięcia tej tak zwanej bańki. I to nie
00:07:13 byłoby dobre ani dla świata, ani dla
00:07:15 rozwoju AI. Dlatego studzenie emocji
00:07:17 wokół AGI jest tak ważne, aby położyć
00:07:20 solidne fundamenty pod bardziej
00:07:22 zrównoważony wzrost,
00:07:25 bo wie pan, jeszcze 5 lat temu samo
00:07:28 rozwiązywanie dowolnego zadania z
00:07:30 kodowania nazwalibyśmy AGI. Dziś już to
00:07:33 mamy i mówimy na to po prostu narzędzie.
00:07:36 Czy więc już nie przesunęliśmy tej
00:07:38 poprzeczki? Nie zmieniliśmy kryteriów?
00:07:41 Nie sądzę, by 5 lat temu rozwiązywanie
00:07:43 problemów z czołówki nazywano AGI.
00:07:46 Mówionobo by: "Opublikowałem pracę o
00:07:48 tym, jak pobyliśmy poziom człowieka".
00:07:50 Więc może trzy lata temu, tak? Może trzy
00:07:52 lata temu rozwiązanie dowolnego problemu
00:07:54 z kodowaniem nazywano AGI, jak pamiętam.
00:07:57 Inaczej to pamiętam. Nie przypominam
00:07:59 sobie, aby wiarygodne zespoły ogłaszały
00:08:01 osiągnięcie AGI. Pamiętam raczej, że
00:08:04 zespoły deklarowały, iż AGI jest kwestią
00:08:06 krótkiego czasu, ale trzy lata temu nie
00:08:08 było tak, że krzyczały: "Mamy AGI".
00:08:10 Mówiły, że możemy dojść do tego naprawdę
00:08:12 szybko, a jak dotąd nikt tam nie dotarł.
00:08:16 Czy nie uważa pan, że już przesunęliśmy
00:08:18 tę poprzeczkę?
00:08:21 Myślę, że jeśli już, to zespoły próbują
00:08:24 obniżyć poprzeczkę tego, co znaczy
00:08:26 osiągnąć AGI. To znaczy AGI, AI, która
00:08:29 potrafi wykonywać każde zadanie
00:08:31 intelektualne, jakie potrafią ludzie. To
00:08:34 bardzo wysoko postawiona poprzeczka.
00:08:36 Nawet się do niej nie zbliżyliśmy. Ale
00:08:38 jeśli zespoły wymyślą alternatywną
00:08:41 definicję, łatwiejszą do spełnienia, to
00:08:43 może dotrzemy tam szybciej. Swoją drogą
00:08:46 nie mam silnej opinii co do tego, jak
00:08:48 zdefiniujemy AGI. Możemy zdefiniować AGI
00:08:51 jak tylko chcemy, ale problem polega na
00:08:54 tym, że większość szerokiej publiczności
00:08:56 myśli o AGI jako o ogólnie bardzo
00:08:59 inteligentnej AI w gruncie rzeczy
00:09:02 inteligencji podobnej do ludzkiej. Tak
00:09:04 myśli większość ludzi na świecie.
00:09:05 Subiektywność myślenie abstrakcyjne,
00:09:07 prawda? Dokładnie. Myślę, że ponieważ
00:09:10 ludzie wciąż tworzą alternatywne
00:09:12 definicje, okazuje się, że kiedy wiele
00:09:14 różnych osób używa tego samego słowa do
00:09:16 opisywania istotnie różnych rzeczy,
00:09:18 terminy tracą znaczenie. Na przykład
00:09:21 wszyscy mniej więcej wiemy, co znaczy
00:09:22 słowo niebieski. Moja koszula jest
00:09:24 niebieska, ale gdyby z jakiegoś powodu
00:09:26 społeczeństwo wskazywało na
00:09:28 najróżniejsze kolory i mówiło: "To jest
00:09:30 niebieskie, to jest niebieskie". Słowo
00:09:32 niebieskie straciłoby znaczenie, bo
00:09:34 ludzie nie wiedzieliby już, co właściwie
00:09:36 znaczy, kiedy ktoś mówi niebieski. I to
00:09:38 właśnie stało się z AGI. Różne zespoły
00:09:41 wymyślały różne alternatywne definicje.
00:09:43 Ludzie mówią, to jest AGI. A ponieważ do
00:09:46 tego terminu stosuje się wiele różnych
00:09:48 definicji, kiedy ktoś mówi dziś AGI,
00:09:51 trudno zrozumieć co dokładnie ma na
00:09:53 myśli. A problem polega na tym, że
00:09:55 opinia publiczna kojarzy AGI z
00:09:57 inteligencją podobną do ludzkiej,
00:10:00 bo tak jest, co wydaje mi się rozsądne.
00:10:03 Więc jeśli ktoś wymyśli jakąś dziwną,
00:10:06 wąską techniczną definicję i powie, że
00:10:08 AGI pojawi się za 2 lata, to i tak
00:10:11 szersza publiczność uzna, że za 2 lata
00:10:13 AI będzie tak inteligentna jak ludzie, a
00:10:15 to po prostu nie wydaje mi się prawdą.
00:10:17 Przy każdej rozsądnej definicji AGI
00:10:20 sądzę, że odpowiedź brzmi nie. W 2026
00:10:23 roku nie uzyskamy AGI. Najlepszym
00:10:26 sposobem by mieć AGI w 2026 byłoby to,
00:10:30 że drastycznie obniżymy poprzeczkę tego,
00:10:33 co AGI naprawdę znaczy. Wtedy może ktoś
00:10:36 zdoła pokonać tę barierę. Czy może pan
00:10:38 wyjaśnić i zdefiniować AGI? Definicja
00:10:41 AGI, z którą spotykam się najczęściej,
00:10:44 to AI, która potrafiłaby wykonać każde
00:10:46 zadanie intelektualne, jakie potrafi
00:10:48 wykonać człowiek. A dziś człowiek może
00:10:50 się nauczyć w ciągu powiedzmy
00:10:52 kilkudziesięciu godzin na przykład jak
00:10:54 poprowadzić ciężarówkę przez las, czego
00:10:56 nigdy wcześniej nie robił. Choć sądzę,
00:10:58 że gdyby podszkolił mnie pan przez kilka
00:11:00 godzin, to prawdopodobnie dałbym radę.
00:11:02 Człowiek potrafi się też nauczyć
00:11:04 odbierać telefony w call center i
00:11:06 odpowiadać na pytania tak, jak konkretna
00:11:08 firma wymaga, by to robić. Są więc
00:11:10 rzeczy, których człowiek może się
00:11:11 nauczyć. Zadania intelektualne w
00:11:13 odróżnieniu od zadań fizycznych. A mimo
00:11:15 to w przypadku wielu takich zadań wciąż
00:11:16 mam wrażenie, że trzeba wykonać ogrom
00:11:18 pracy, aby budować niestandardowe
00:11:19 przepływy pracy AI, które realizujemy
00:11:21 my, rzeczy, które faktycznie robimy. I
00:11:23 okazuje się to bardzo wartościowe. Ale
00:11:25 to, że inżynier musi poświęcać na
00:11:26 budowanie takich rozwiązań aż tyle
00:11:27 czasu, nie jest tym, co opinia publiczna
00:11:29 zwykle wyobraża sobie jako i choć bardzo
00:11:31 liczę, że kiedyś dojdziemy do tego, że
00:11:32 komputery będą równie inteligentne co
00:11:33 ludzie pod każdym względem, to uważam,
00:11:35 że jesteśmy od tego bardzo daleko.
00:11:38 Chciałem przekazać coś dla nas bardzo
00:11:40 ważnego. Napisałem moją pierwszą
00:11:43 książkę. Od wielu lat prowadzę tu
00:11:45 rozmowy z największymi umysłami na
00:11:47 Ziemi, tytanami. Zebrałem nie
00:11:49 opublikowane do tej pory wywiady w
00:11:51 formie książki. Zamawiajcie ją,
00:11:53 wspierajcie to co robimy i zgłębcie się
00:11:56 razem z nami w tajemnic rzeczywistości.
00:11:59 >> Jak pan definiuje ludzką świadomość?
00:12:02 Uważam, że świadomość jest ważnym
00:12:04 pytaniem filozoficznym, ale nie wiem
00:12:06 czym jest świadomość. Filozofowie
00:12:08 doprecyzowują świadomość w tym sensie,
00:12:11 że istnieje pojęcie bycia samoświadomym,
00:12:13 ale okazuje się, że tak naprawdę nie wie
00:12:15 pan, czy ja jestem świadomy. Ja tak
00:12:17 naprawdę nie wiem, czy pan jest prawda.
00:12:20 Skąd ma pan wiedzieć? W filozofii jest
00:12:22 takie pojęcie, że być może jestem po
00:12:24 prostu zombie i wcale nie jestem
00:12:26 świadomy, tylko poruszam rękami,
00:12:28 poruszam ustami i udaję, że jestem
00:12:29 świadomy, ponieważ nie ma pan dostępu do
00:12:32 mojego wewnętrznego doświadczenia i
00:12:34 odwrotnie. Nie wiemy tak naprawdę czy
00:12:35 ktokolwiek inny jest świadomy, ale
00:12:38 myślę, że przez całą tę uprzejmość
00:12:40 zakładamy, że wszyscy inni są świadomi w
00:12:42 takim stopniu, w jakim sądzimy, że my
00:12:44 sami jesteśmy. Więc ponieważ świadomości
00:12:46 nie da się zmierzyć, dla mnie czyni to z
00:12:48 niej pytanie filozoficzne, a nie
00:12:50 naukowe. A chociaż filozofia jest ważna,
00:12:53 bardziej ciągnie mnie do pytań
00:12:54 naukowych.
00:12:57 Jaka jest więc natura ludzkiej
00:13:00 inteligencji?
00:13:03 Dla mnie natura inteligencji to pytanie,
00:13:05 jakie naprawdę mechanizmy pozwalają
00:13:07 ludzkiemu mózgowi, a może innym
00:13:09 biologicznym mózgom przejawiać ten
00:13:11 ogromny zakres inteligentnych zachowań,
00:13:14 które widzimy. Na przykład jak to w
00:13:16 ogóle działa. Swoją drogą coś, co nie
00:13:19 jest powszechnie znane. Zanim założyłem
00:13:21 zespół Google Brain, robiłem coś
00:13:23 jeszcze. Spędzałem mnóstwo czasu z moimi
00:13:26 znajomymi neuronaukowcami. Czytałem
00:13:28 ogromne stosy artykułów z neuronauki i
00:13:31 doszedłem do wniosku z całym szacunkiem
00:13:33 dla moich przyjaciół neuronaukowców, że
00:13:36 neuronauka tak naprawdę nie ma pojęcia
00:13:38 jak w zasadzie działa mózg. Więc
00:13:40 porzuciłem neuronaukę jako drogę do
00:13:42 budowania inteligencji, ale zrozumienie
00:13:45 jak właściwie działa inteligencja, jaka
00:13:47 jest natura inteligencji, jestem prawie
00:13:50 pewien, że nie jest to sieć typu
00:13:52 transformer ze skalowaniem praw. Jestem
00:13:54 prawie pewien, że potrzeba czegoś
00:13:55 więcej. Ale chciałbym, żebym ja jaka
00:13:58 jest także natura rozumowania?
00:14:01 Tak myślę, że rozumowanie jest pod
00:14:03 zbiorem inteligencji, ale zrozumienie
00:14:05 jak naprawdę działa rozumowanie też
00:14:07 byłoby fascynujące.
00:14:11 >> Pan Elizer Jutkowski mówi, cytuje:
00:14:14 "Jeśli ktoś zbuduje AGI, wszyscy
00:14:17 zginiemy.
00:14:22 Ale każdy rok zwłoki to miliony zgonów
00:14:25 na raka. starzenie i choroby, które AI
00:14:28 mogłaby leczyć.
00:14:31 Które ryzyko jest większe? Dla mnie to
00:14:34 fundamentalne pytanie.
00:14:37 Szczerze mówiąc, kiedy czytam wiele jego
00:14:39 argumentów, często nie potrafię ich w
00:14:41 ogóle rozgryźć. Sporo z nich jest na
00:14:43 tyle rozmytych, że nawet nie wiem jak z
00:14:45 nimi sensownie polemizować. Uważam, że
00:14:48 AI już dziś robi na świecie tak wiele
00:14:50 dobrego, iż wszystko co możemy zrobić,
00:14:52 by przyspieszyć jej rozwój, przełoży się
00:14:55 na lepsze życie. Znacznie więcej
00:14:57 uratowanych istnień, dużo więcej
00:14:59 bogatszych i w lepszej sytuacji ludzi, a
00:15:01 także wyciągnięcie ogromnej liczby osób
00:15:03 z ubóstwa. Łączna korzyść z AI jest
00:15:06 zdecydowanie większa niż łączna szkoda.
00:15:08 Owszem, istnieją pewne szkodliwe
00:15:10 zastosowania. Bądźmy wobec nich
00:15:13 racjonalni i je usuwajmy. Ale w tej
00:15:15 chwili jestem silnie przekonany, że
00:15:17 wszystko co możemy zrobić, by
00:15:18 przyspieszyć postęp AI jest dobre dla
00:15:20 ludzkości.
00:15:26 Z pana punktu widzenia przyszłość jest
00:15:28 nieprzewidywalna, prawda? Chciałbym
00:15:30 umieć przewidywać przyszłość. Oczywiście
00:15:32 tak, jest nieprzewidywalna. Istnieje
00:15:34 zbyt wiele czynników.
00:15:37 Myślę, że choć nie wiemy z całą
00:15:38 pewnością dokąd dokładnie zmierza świat,
00:15:41 istnieją trendy, co do których mamy
00:15:43 bardzo wysoki poziom pewności. Na
00:15:45 przykład to, że komputery będą coraz
00:15:47 bardziej inteligentne wydaje mi się
00:15:49 oczywiste i to jest świetna rzecz.
00:15:51 Chodzi o to, by zdemokratyzować dostęp
00:15:54 do inteligencji, bo okazuje się, że
00:15:56 jedną z najdroższych rzeczy na świecie
00:15:58 jest inteligencja. Zatrudnienie
00:16:01 świetnego lekarza czy świetnego
00:16:02 nauczyciela, aby się nami zajmowali,
00:16:04 kosztuje mnóstwo pieniędzy.
00:16:11 Właśnie zaproponował pan dziś nową
00:16:13 wersję testu Touringa. Czy może pan
00:16:15 wyjaśnić pana propozycję?
00:16:20 Jestem tym bardzo podekscytowany. Mam
00:16:22 wrażenie, że przez cały ten szum wokół
00:16:24 AGI stała się ona raczej hasłem
00:16:26 marketingowym niż czymś o precyzyjnym
00:16:29 znaczeniu technicznym. A gdy używa się
00:16:31 jej jako terminu marketingowego, to w
00:16:33 praktyce wprowadza się wiele osób w
00:16:34 błąd. Ale skoro ludzie chcą AGI i się
00:16:37 nią ekscytują tak jak ja, to czemu nie
00:16:40 opracować testu, żeby sprawdzić, czy
00:16:42 faktycznie zbliżamy się do jej
00:16:43 osiągnięcia. Pomysł jest taki. W
00:16:46 oryginalnym teście Turouringa ludzki
00:16:48 sędzia mógł wymieniać tekst pisząc albo
00:16:50 z AI, albo z człowiekiem. A sens
00:16:53 oryginalnego testu był taki: Czy AI
00:16:55 potrafi oszukać sędziego tak, by sędzia
00:16:58 uznał, że nie potrafi rozpoznać, czy
00:17:00 rozmawia z AI, czy z człowiekiem? To był
00:17:03 świetny pomysł jak na 1950 rok, kiedy
00:17:06 Alan Turing, o ile pamiętam,
00:17:07 zaproponował ten test. Ale ten test tak
00:17:10 naprawdę nie mierzy inteligencji w
00:17:12 sposób, w jaki dziś o niej myślimy. Moja
00:17:14 wersja testu Turouringa dla AGI jest
00:17:17 taka. Ludzki sędzia projektuje
00:17:19 wielodniowe doświadczenie, coś w rodzaju
00:17:21 wdrożenia lub szkolenia wstępnego
00:17:23 realizowanego przez komputer, a testowi
00:17:26 poddana będzie albo AI, albo człowiek z
00:17:28 dostępem do komputera i normalnego
00:17:31 oprogramowania, takiego jak przeglądarka
00:17:33 internetowa, może Zoom, może inne
00:17:35 narzędzia. Jeśli przez kilka dni w takim
00:17:38 wielodniowym scenariuszu AI potrafiłaby
00:17:40 wykonać użyteczną, ekonomicznie
00:17:42 wartościową pracę tak dobrze jak
00:17:44 wykwalifikowany profesjonalista, to
00:17:47 według mnie byłaby to bardziej sensowna
00:17:49 definicja AGI. Proponuję ją, ponieważ
00:17:51 jest ona znacznie bliższa temu, co
00:17:53 szeroka publiczność rozumie przez AGI.
00:17:56 Jeśli ludzie myślą, że AGI może już być
00:17:58 blisko, to myślą: "Wow, AI będzie w
00:18:00 stanie wykonywać pracę ludzi". I
00:18:02 rzeczywiście, jeśli AI jest przez wiele
00:18:05 dni w stanie działać jak zdalny
00:18:06 pracownik i wykonywać produktywną pracę,
00:18:09 to będzie to niezwykle wartościowe i
00:18:11 moim zdaniem dużo bliższe temu, co
00:18:13 ludzie uznają za prawdziwą AGI, niż
00:18:16 niektóre alternatywne kryteria, które
00:18:18 część firm promuje na potrzeby PR,
00:18:20 polityki czy zbiórek funduszy. Pamiętam
00:18:24 mój wywiad z ser Rogerem Penosem,
00:18:26 laureatem nagrody Nobla. Matematyka jest
00:18:29 systemem zamkniętym, więc AI może grać w
00:18:32 nią jak w grę.
00:18:35 Czy nie boi się pan, że nie istnieje
00:18:37 skuteczny test AI?
00:18:45 Jednym z wyzwań w testach czy
00:18:47 benchmarkach dla AI jest to, że gdy ktoś
00:18:50 z góry ustali zestaw testowy, to mierzy
00:18:52 się tylko jeden konkretny wymiar
00:18:54 inteligencji. Dlatego dla wielu modeli
00:18:57 AI, zwłaszcza dużych modeli językowych
00:18:59 istnieje mnóstwo standardowych
00:19:01 benchmarków Swibench, GPQA i tak dalej.
00:19:05 Bardzo trudno uniknąć tego, aby zespoły
00:19:08 nie optymalizowały swoich modeli pod
00:19:10 znane systemy testów. Nawet jeśli nie
00:19:13 robią tego wprost, i tak się to dzieje.
00:19:15 Ai ma poszarpaną nierówną inteligencję.
00:19:18 W jednych rzeczach jest świetna, w
00:19:20 innych bywa naprawdę słaba. Natomiast
00:19:23 AGI, jeśli rozumieć ją jako AI zdolną
00:19:26 wykonać każde zadanie intelektualne,
00:19:28 które potrafi człowiek, powinna
00:19:30 obejmować cały zakres takich zadań. Dla
00:19:33 mnie zasadnicza różnica między
00:19:35 benchmarkiem opartym o stały zestaw
00:19:37 testów a sondowaniem na żywo przez
00:19:39 człowieka polega na tym, że ludzki
00:19:41 sędzia może spojrzeć na aktualny stan
00:19:44 techniki i sprawdzić gdzie AI jest
00:19:46 mocna, a gdzie słaba. A jeśli AI ma być
00:19:49 na poziomie AGI, to większość ludzi
00:19:52 myśli o niej jako o systemie
00:19:53 dorównującym im w każdym wymiarze. Czyli
00:19:56 sędzia, człowiek nie powinien umieć
00:19:58 wysądować obszarów, w których AI jest
00:20:01 wyraźnie słabsza od człowieka. Na
00:20:03 przykład w ekonomicznie wartościowych
00:20:05 zadaniach zawodowych, które chcemy
00:20:06 powierzać AI. Ale wie pan, czy
00:20:09 benchmarki faktycznie mierzą coś
00:20:11 rzeczywistego? Benchmarki dochodzą do
00:20:14 oceny 90% a użytkownicy mówią, że model
00:20:18 sprawia wrażenie mniej inteligentnego.
00:20:20 Czy benchmarki mierzą coś realnego?
00:20:26 Owszem, benchmarki mierzą coś realnego,
00:20:28 ale to bardzo wąski wycinek tego, co w
00:20:30 ogóle będziemy mierzyć. Jedna ze
00:20:32 słabości wielu benchmarków polega na
00:20:34 tym, że dużo lepiej umiemy projektować
00:20:36 testy obiektywne, czyli rzeczy takie jak
00:20:39 matematyka. Odpowiedź jest poprawna albo
00:20:41 błędna. Albo pytanie faktograficzne w
00:20:44 stylu: "Kto na tegorocznych igrzyskach
00:20:46 wygrał 200 m stylem dowolnym?" Takie
00:20:48 pytania mają jednoznacznie dobrą lub złą
00:20:50 odpowiedź, więc wiele benchmarków
00:20:52 sprowadza się do mierzenia, czy AI ma
00:20:54 rację, czy nie. To jest bardzo
00:20:56 zerojedynkowe. W prawdziwym życiu
00:20:58 niezwykle trudno opracować jedną
00:21:00 całkowicie obiektywną najlepszą
00:21:02 odpowiedź. Nawet w rozmowie jak ta,
00:21:04 którą teraz prowadzimy. Co jest tą jedną
00:21:07 właściwą rzeczą, którą powinienem
00:21:09 powiedzieć? Nie wiem, ale mógłbym
00:21:11 powiedzieć coś lepszego albo coś
00:21:12 gorszego. I ogólnie nie jesteśmy zbyt
00:21:15 dobrzy w tworzeniu benchmarków, które
00:21:17 mierzą rzeczy bardziej subiektywne,
00:21:19 gdzie występują stopnie jakości, dobre i
00:21:22 złe, bo bardzo trudno napisać zestaw
00:21:24 testów mówiący: "To jest jedna poprawna
00:21:27 odpowiedź z wielu, a to jedna z wielu
00:21:29 błędnych. Nie, że nie próbujemy, ale mam
00:21:32 wrażenie, że wiele benchmarków, które
00:21:33 mamy, nie łapie tego tak dobrze. A w
00:21:36 praktyce tak wygląda sporo ludzkiej
00:21:38 pracy. Jeśli poprosi mnie pan o
00:21:39 napisanie raportu badawczego, to nie ma
00:21:41 jednego właściwego raportu. Są różne
00:21:44 poziomy tego, jak dobry albo zły może
00:21:46 być taki raport. Nasza zdolność pisania
00:21:49 benchmarków, które mogą uchwycić tę
00:21:51 szarość, te odcienie szarości jest dużo
00:21:54 słabsza niż umiejętność robienia testów
00:21:56 typu czy model poprawnie rozwiązał
00:21:58 zadanie z matematyki. czy napisał kod,
00:22:01 który się uruchamia i działa, to
00:22:03 potrafimy robić lepiej niż to, czego
00:22:05 wymaga znaczna część naprawdę użytecznej
00:22:07 ludzkiej pracy. Jeśli nie AGI, to czego
00:22:11 możemy się spodziewać w 2026 roku? Greg
00:22:15 Brockman z Open AI mówi, że dwa
00:22:17 największe wyzwania dla AI w 2026 roku
00:22:21 to wdrożenie agentów w firmach i
00:22:23 przyspieszenie nauki. Jaka jest pana
00:22:25 opinia?
00:22:30 Uważam, że temat AGI nas rozprasza.
00:22:33 Jesteśmy od niej bardzo daleko. Nie
00:22:35 dojdziemy do niej w najbliższym czasie.
00:22:37 Ale nawet bez osiągnięcia AGI robimy i w
00:22:41 2026 roku nadal będziemy robić mnóstwo
00:22:44 niesamowicie wartościowych rzeczy.
00:22:46 Ukułem termin agentowa AI, aby opisać
00:22:49 coraz powszechniejsze zjawisko jakie
00:22:51 widziałem. I choć mówiłem, że zbudowanie
00:22:53 AI, która zrozumie użyteczne procesy
00:22:55 biznesowe, to ogrom pracy, czasem gdy
00:22:57 nam się to udaje, wartość jest ogromna.
00:23:00 W 2026 roku i później będziemy mieli
00:23:03 dużo ekscytującej pracy nad budowaniem
00:23:05 agentów AI albo agentowych przepływów
00:23:08 pracy, które wykonają masę
00:23:10 wartościowych, ekonomicznie istotnych
00:23:12 zadań. U nas w naszym AI Fund zespoły
00:23:15 używają agentowych przepływów pracy
00:23:17 workflow do pisania kodu jak wiele
00:23:20 innych zespołów w branży, ale też do
00:23:22 analizowania dokumentacji, do
00:23:24 sprawdzania zgodności z taryfami celnymi
00:23:27 w trybie wsparcia AI albo do czytania
00:23:29 trudnych dokumentów prawniczych, żeby
00:23:31 pomóc prawnikom lepiej wykonywać ich
00:23:34 pracę, czy też do zadań wspierających
00:23:36 medycynę, albo do wspierania obsługi
00:23:38 klienta. I widzę, że przenoszenie
00:23:40 procesów mentalnych, przez które ludzie
00:23:42 teraz przechodzą wykonując tego typu
00:23:44 zadania, czy to zgodność prawna, czy
00:23:47 cokolwiek innego, i ujęcie ich jako
00:23:49 agenta AI w agentowym przepływie pracy,
00:23:52 tak aby AI mogła robić to za nas, to
00:23:54 moim zdaniem potrwa to jeszcze bardzo
00:23:56 długo. Będziemy jeszcze przez wiele,
00:23:58 wiele lat budować te agentowe przepływy
00:24:01 workflow.
00:24:03 W kontekście agentowych workflowów, o
00:24:06 których pan mówi, profesor Rich
00:24:08 Saturynął stwierdzeniem, że surowa moc
00:24:11 obliczeniowa zawsze wygra z ludzką
00:24:13 pomysłowością. Skupiając się na
00:24:15 agentowych workflowach, czy nie jest pan
00:24:18 trochę wbrew temu stwierdzeniu?
00:24:23 Artykuł Richa o gorzkiej lekcji był
00:24:25 bardzo wpływowy i bardzo dobrze
00:24:27 napisany. Żeby było jasne, lubię
00:24:29 skalować. Kiedy zakładałem Google Brain,
00:24:32 które później połączyło się z Deep Mind,
00:24:34 tworząc Google Deep Mind, gdy powstawał
00:24:37 Gemini i tak dalej, moją misją numer
00:24:39 jeden, którą wyznaczyłem zespołowi
00:24:41 Google Brain było po prostu skalujmy.
00:24:44 Mówimy o naprawdę dużych, ogromnych
00:24:46 sieciach neuronowych, do których
00:24:48 dochodzi mnóstwo danych. Uważam więc, że
00:24:50 byłem w AI prawdopodobnie od jej samych
00:24:52 początków. Jest pan architektem epoki
00:24:55 skali. stawiałem na skalę, kiedy
00:24:57 szczerze mówiąc w tamtym czasie prawie
00:24:59 wszyscy inni uważali to za dziwną rzecz,
00:25:01 na którą w ogóle nie warto stawiać.
00:25:03 Lubię więc skalę i myślę, że wynikało to
00:25:05 z tego, że zespół Google Brain tak jak
00:25:07 go zorganizowałem skalę miał po prostu w
00:25:10 swoim DNA. To było najważniejsze.
00:25:12 Oczywiście zespół robił wiele różnych
00:25:14 rzeczy, zawsze jest wiele zadań, ale
00:25:16 misją numer jeden było właśnie
00:25:18 skalowanie. Tak zbudowałem Google Brain
00:25:21 i właśnie dlatego z takim DNA to zespół
00:25:23 Google Brain wymyślił transformatorową
00:25:25 sieć neuronową, najbardziej skalowalną
00:25:28 architekturę sieci neuronowych w
00:25:30 historii, która napędziła rewolucję
00:25:32 generatywnej AI, więc naprawdę wierzę w
00:25:35 skalę. Jednakże w różnych momentach w
00:25:38 czasie nasza zdolność do skalowania oraz
00:25:40 nasza zdolność do wprowadzania innych
00:25:42 form wiedzy tworzą pewną równowagę, w
00:25:45 której nie sądzę, że osiągniemy wszystko
00:25:47 czego chcemy tylko i wyłącznie dzięki
00:25:49 skali. To jest niesamowicie potężne
00:25:51 narzędzie i jak w wielu sprawach czasem
00:25:54 widzieliśmy jak firmy pompują jeden
00:25:56 fenomen na potrzeby pozyskiwania
00:25:57 finansowania albo PR-u czy z innych
00:26:00 powodów. I to jest absolutnie prawda, że
00:26:02 dzięki prawom skalowania, gdy skaluje
00:26:05 się systemy, można dość przewidywalnie
00:26:07 prognozować, dokąd pójdzie ich
00:26:09 wydajność. Po raz pierwszy pokazał to
00:26:11 mój zespół w BDU, a później, jak
00:26:13 pamiętam Open AI. I to jest w istocie
00:26:16 wspaniały argument do zbierania
00:26:18 funduszy, bo można powiedzieć: "Dajcie
00:26:20 mi więcej pieniędzy, a ja przeskaluję te
00:26:22 maszyny, przeskaluję liczbę punktów
00:26:25 danych, żeby było lepiej". Ale myślę, że
00:26:27 z powodu tego jednego prawa skali temat
00:26:29 został rozdmuchany ponad to, czym
00:26:31 faktycznie jest, co jest bardzo
00:26:33 wartościowe, ale nie aż tak, jakby to
00:26:35 wynikało z całego tego szumu, choć wciąż
00:26:38 wartościowe. A agentowe przepływy pracy
00:26:41 pozwalają nam wykorzystać skalę modeli
00:26:43 AI, dużych modeli językowych i dodatkowo
00:26:46 wstrzykiwać do systemu inne typy wiedzy,
00:26:48 by budować bardziej niezawodne i
00:26:50 wydajniejsze workflowy.
00:26:54 Czy naprawdę uważa pan, że era
00:26:56 skalowania dobiegła obecnie końca? Nie,
00:26:59 nie sądzę, że era skalowania dobiegła
00:27:01 końca. To staje się coraz trudniejsze.
00:27:03 Tak, to było ciekawe. A rozwijała się
00:27:06 być może nawet wykładniczo. Interesujące
00:27:08 było też obserwować, że liczba dolarów
00:27:11 potrzebnych do napędzania tego
00:27:13 wykładniczego postępu również rosła
00:27:15 wykładniczo, czyli wydaje się
00:27:17 wykładniczo więcej pieniędzy, żeby
00:27:19 uzyskać wykładniczo szybszą poprawę. To
00:27:22 nie jest złe. To jest bardzo
00:27:23 wartościowe, bo koszt zbudowania tego
00:27:25 można rozłożyć na wielu użytkowników i
00:27:28 myślę, że skala wciąż może nam jeszcze
00:27:30 sporo dać, ale to nie jest jedyna droga,
00:27:33 jaką dziś mamy, by ulepszać AI.
00:27:40 Co mogłoby zmienić pana zdanie?
00:27:43 O czym? O skalowaniu.
00:27:45 Co sprawiłoby, żebym w ogóle odpuścił
00:27:47 skalowanie? Tak.
00:27:49 Jeśli przez dłuższy czas kolejne próby
00:27:51 skalowania modeli nie przynosiłyby
00:27:53 żadnych efektów, to pewnie zmieniłbym
00:27:55 zdanie. Ale tu pojawia się ważny
00:27:57 dopisek. Tak jak przez wiele dekad prawo
00:28:00 mura napędzało postęp, tak do tego by
00:28:03 prawo mura nadal sprawiało, że
00:28:05 półprzewodniki działały coraz lepiej,
00:28:07 potrzebnych było wiele różnych
00:28:08 technologii, które z czasem się
00:28:10 zmieniały. Widzimy, że we wczesnych
00:28:12 dniach generatywnej AI i dużych modeli
00:28:15 językowych przepis był prosty. Zdobyć
00:28:18 więcej danych, zbudować większy model.
00:28:20 To dokładnie to, przynajmniej na takim
00:28:22 poziomie abstrakcji, co Google Brain
00:28:24 próbowało robić ponad 15 lat temu. Od
00:28:27 tamtej pory modele AI przeczytały
00:28:29 właściwie cały otwarty internet. To
00:28:31 sprawia, że ten prosty przepis na
00:28:33 skalowanie już tak naprawdę nie działa.
00:28:35 Dlatego wiele zespołów wykonuje teraz
00:28:37 znacznie więcej pracy w obszarze
00:28:39 generowania danych syntetycznych, co
00:28:41 wymaga dużo więcej ludzkiej inżynierii
00:28:43 oraz w obszarze różnych przepisów
00:28:45 uczenia ze wzmocnieniem. I choć
00:28:48 eskalowanie nadal przynosi korzyści,
00:28:50 konkretne receptury napędzające to
00:28:51 skalowanie zdecydowanie i dość mocno
00:28:54 zmieniły się w ciągu ostatnich dwóch,
00:28:56 trzech lat.
00:28:59 Z drugiej strony, czy mądrzejszy model
00:29:02 przebije sprytny przepływ pracy?
00:29:08 Właśnie szkoda, że w praktyce nie jest
00:29:11 to takie proste. Myślę, że teoretycznie
00:29:14 tak. W praktyce jest to dużo trudniejsze
00:29:16 niż większość ludzi sądzi.
00:29:22 Dlaczego w praktyce jest to takie
00:29:24 trudne?
00:29:27 Jedną z rzeczy, które uważam za
00:29:28 fantastyczne jest to, że wraz z bardziej
00:29:31 inteligentnymi modelami, czy to Clod 4.5
00:29:34 Opus, Gemini 3, GPT 51, 52, coraz
00:29:38 częściej możemy udostępnić dużemu
00:29:40 modelowi językowemu zestaw narzędzi i po
00:29:43 prostu dać mu wolną rękę, czyli dać mu
00:29:45 narzędzia do odczytu i zapisu w systemie
00:29:48 plików, a potem zlecić jakieś zadanie,
00:29:50 na przykład znajdź zbędne pliki i pomóż
00:29:52 mi posprzątać dysk twardy czy tym
00:29:54 podobne. A poziom działania jest
00:29:56 fantastyczny. To naprawdę, naprawdę robi
00:29:59 ogromne wrażenie. Jednakże dla wielu
00:30:01 przepływów pracy to wciąż nie jest dość
00:30:03 niezawodne, żeby nadawało się do użycia
00:30:05 na co dzień. I dlatego, chociaż
00:30:07 mądrzejsze modele są świetne, to w wielu
00:30:10 praktycznych zastosowaniach biznesowych
00:30:12 obserwuję dziś zespoły, które rozpisują
00:30:15 jaki workflow chcemy mieć, jakie są
00:30:17 kluczowe kroki i wdrażają go kawałek po
00:30:20 kawałku, żeby właśnie uzyskać tę
00:30:22 niezawodność, przewidywalność, aby móc
00:30:25 go uruchomić 10 000 razy i żeby działał
00:30:27 praktycznie za każdym razem. A gdy
00:30:29 modele stają się bardziej inteligentne,
00:30:32 pozwalamy im być bardziej
00:30:33 autonomicznymi. Usuwamy ograniczniki. To
00:30:36 coś, co moje zespoły robią często. To,
00:30:39 co zbudowaliśmy 6 miesięcy temu miało
00:30:41 więcej zabezpieczeń, było bardziej
00:30:43 oskryptowane, a my rutynowo redukujemy
00:30:46 te rusztowania. Zamiast dawać bardzo
00:30:48 szczegółowe instrukcje krok po kroku,
00:30:50 częściej mówimy do AI: "Wiesz co, sama
00:30:53 zdecyduj, co chcesz zrobić". Może taki
00:30:56 przykład. Kiedy prowadziliśmy dogłębne
00:30:58 badania, gdzie mówiliśmy, że aby
00:31:00 przeprowadzić badania w danym temacie,
00:31:02 wykonaj wyszukiwanie w sieci, zrób tyle
00:31:04 i tyle zapytań, potem pobierz tyle i
00:31:07 tyle stron i to podsumuj i tak dalej.
00:31:10 Klasyczny agentowy workflow badawczy
00:31:12 sprzed roku czy dwóch. Dziś modele AI
00:31:15 dużo lepiej potrafią same zdecydować,
00:31:17 czy chcą jeszcze dalej przeszukiwać
00:31:19 internet, czy chcą to podsumować, czy
00:31:21 nie. Więc często biorę systemy, których
00:31:24 prototyp robiliśmy rok temu, 6 miesięcy,
00:31:27 rok, półtora roku temu i usuwam z nich
00:31:29 instrukcje, mówiąc: "Hej, w samym
00:31:31 prompcie po prostu sam rozpracuj te
00:31:34 decyzje." Ale to wciąż długa droga. To
00:31:36 działa w przypadkach typu głęboki
00:31:38 research, gdzie model nie podejmuje
00:31:40 działań. Jeśli pominie cytowanie albo
00:31:43 przeoczy odnośnik, to nie jest jeszcze
00:31:45 koniec świata. Ale dla wielu zastosowań
00:31:48 klasy enterprise o wysokiej stawce
00:31:50 uważam, że luka w niezawodności między
00:31:52 podejściem puśćmy model luzem i niech
00:31:54 robi co chce, a tym czego realnie
00:31:57 potrzebujemy, choć się zmniejsza, wciąż
00:31:59 jest większa niż niektórzy sądzą.
00:32:06 Kiedy pana słucham, muszę zapytać, czy
00:32:08 mówiąc otwarcie w najbliższych latach
00:32:11 programiści zostaną bez pracy?
00:32:14 Sądzę, że programiści, którzy nie
00:32:16 używają AI będą mieli kłopoty, a ci,
00:32:18 którzy naprawdę znają AI są tak
00:32:20 produktywni, że po prostu nie da się
00:32:22 znaleźć ich wystarczająco wielu. Czy też
00:32:25 będą ostatni do zwolnienia?
00:32:29 Określenie ostatni do zwolnienia brzmi
00:32:31 trochę ponuro. Uważam, że większość
00:32:33 zawodów nigdzie nie znika, ale to
00:32:35 powiedzenie, że AI nie zastąpi kogoś,
00:32:38 tylko ktoś, kto używa AI zastąpi kogoś,
00:32:40 kto jej nie używa, jest już bardziej
00:32:42 prawdziwe. Teraz, żeby było
00:32:44 przejrzyście, aby być całkowicie
00:32:46 szczerym, istnieje niewielka liczba
00:32:48 zawodów, które AI w pełni zautomatyzuje.
00:32:51 Mówiąc wprost, wielu tłumaczy ma
00:32:53 problem. Tłumaczę i myślę, że też
00:32:55 aktorzy głosowi też mogą mieć kłopot.
00:32:57 Inną sprawą jest to, że istnieje bardzo
00:32:59 mały odsetek zawodów, które AI potrafi
00:33:02 całkowicie zautomatyzować. Tym osobom
00:33:04 naprawdę współczuje i uważam, że
00:33:06 jesteśmy im winni bardzo wiele, aby
00:33:08 mogły zdobyć nowe umiejętności, wrócić
00:33:11 na rynek pracy i znaleźć inne sensowne
00:33:13 zajęcia. Ja jako osoba od AI czuję
00:33:16 obowiązek zrobić wszystko co tylko mogę,
00:33:18 żeby mieć pewność, że ci ludzie są
00:33:20 zaopiekowani. Ale w przypadku
00:33:22 zdecydowanej większości zawodów AI może
00:33:24 zautomatyzować częściowo radiologia.
00:33:27 Myślę, że zautomatyzowanie pracy
00:33:29 radiologów zajmuje znacznie więcej czasu
00:33:31 niż ludzie sądzili, prawda? Myślę, że
00:33:33 trwa to już bardzo długo.
00:33:39 Prawnik? Myślę, że zawód prawnika ma
00:33:42 jeszcze wiele do nadrobienia. Bardzo
00:33:44 trudno byłoby całkowicie zastąpić
00:33:46 ludzkich prawników, ale prawnicy bez AI
00:33:49 będą znacznie mniej wydajni niż ci,
00:33:51 którzy z AI korzystają. Sztuczna
00:33:53 inteligencja naprawdę świetnie radzi
00:33:55 sobie z myśleniem abstrakcyjnym w
00:33:57 badaniach, w analizie prawnej.
00:34:02 Uważam, że AI mogłaby świetnie wykonywać
00:34:04 niektóre aspekty pracy prawniczej, ale
00:34:06 jest tu pewien haczyk. Jeśli jest
00:34:08 zadanie i AI potrafi wykonać 30% pracy,
00:34:12 to do pozostałych 70% wciąż potrzebny
00:34:14 jest człowiek. Tyle że ten człowiek
00:34:16 powinien korzystać z AI, bo ten kto z
00:34:18 niej nie korzysta, po prostu traci na
00:34:20 bazie prawa produktywności. Czy może pan
00:34:22 przewidzieć, które zawody mogą
00:34:24 ostatecznie zniknąć? Oczywiste jest to,
00:34:26 że znika wiele miejsc pracy w call
00:34:28 center, miejsc pracy tłumaczy, aktorów
00:34:30 głosowych. Uważam, że zagrożone są te
00:34:32 stanowiska, w których można
00:34:33 zautomatyzować niemal 100% pracy.
00:34:36 Okazuje się jednak, że wiele zawodów
00:34:37 jest bardzo złożonych, wielowątkowych,
00:34:39 które polegają jakby na świetnej pracy z
00:34:42 tekstem, a jednocześnie są dobre w
00:34:44 zadaniach nietekstowych. Dlatego w
00:34:45 większości przypadków warto patrzeć na
00:34:47 analizę opartą na zadaniach, jak w
00:34:49 badaniach, które prowadził mój
00:34:51 przyjaciel Eric Brnolfson i inni.
00:34:54 Bierzemy zawód, dzielimy go na zadania i
00:34:56 sprawdzamy, które z nich AI potrafi
00:34:58 zautomatyzować. W wielu pracach AI może
00:35:00 przejąć 30 do 40% obowiązków. Do
00:35:03 pozostałych 60 70% wciąż potrzeba więc
00:35:07 człowieka. Jest też mała grupa, gdzie AI
00:35:09 może zautomatyzować prawie wszystko. Te
00:35:11 zawody są w tarapatach, ale to naprawdę
00:35:13 znaczna mniejszość spośród istniejących
00:35:15 miejsc pracy.
00:35:20 Mam kilka pytań o fundamentalne podstawy
00:35:23 AI. Dziecko uczy się chodzić po kilku
00:35:26 upadkach. Uczenie ze wzmocnieniem wymaga
00:35:28 milionów symulacji. Czy to po prostu
00:35:30 nauka metodą siłową?
00:35:46 Jednym z wyzwań uczenia metodą siłową
00:35:48 brut force jest to, że ludzka
00:35:50 inteligencja wynika z ogólności
00:35:52 algorytmu uczenia się i właśnie to
00:35:54 sprawia, że ludzki mózg jest tak
00:35:56 potężny, jest ogólna, uczy się nowych
00:35:59 rzeczy naprawdę szybko i dlatego na
00:36:01 przykład ludzie, którzy z nami pracują,
00:36:03 potrafią zrobić tak wiele. Podczas gdy
00:36:05 chociaż trzeba poświęcić dużo czasu,
00:36:07 żeby metodą brut force wytrenować AI do
00:36:10 jakiegoś wąskiego zadania, to w pewnych
00:36:13 przypadkach nadal może to być bardzo
00:36:15 wartościowe, ale dla wielu zadań po
00:36:17 prostu nie będzie uzasadnienia, aby to
00:36:19 robić. Więc możliwość tego, żeby
00:36:21 zatrudnić człowieka, chwilę z nim
00:36:23 porozmawiać, a potem ustalić co zrobić i
00:36:26 wykonać pracę, nadal jest naprawdę
00:36:28 cenna. Jeśli trzeba zaangażować AI, a
00:36:31 potem wydać milion dolarów na jej
00:36:33 wytrenowanie do jednego zadania, to jest
00:36:35 wiele zadań, przy których po prostu nie
00:36:37 ma sensu wkładać aż tyle środków w jej
00:36:39 trenowanie.
00:36:43 Ale wie pan, jeśli efektywność próbkowa
00:36:46 nie ma znaczenia, to niestety tylko trzy
00:36:48 firmy na świecie mogą sobie pozwolić na
00:36:50 trenowanie modeli z czołówki.
00:36:55 Może pan powtórzyć? Jeśli wydajność
00:36:57 próbkowa się nie poprawi, tylko trzy
00:37:00 firmy na świecie, najwięksi gracze, będą
00:37:03 w stanie trenować wiodące modele od
00:37:05 podstaw.
00:37:08 To nie jest dobre dla społeczności AI.
00:37:12 Czy taka będzie przyszłość?
00:37:16 Naprawdę ciekawie będzie obserwować
00:37:18 nieustannie ewoluującą dynamikę między
00:37:21 modelami open source i modelami z
00:37:23 otwartymi wagami a modelami
00:37:25 własnościowymi. Wie pan, AI jako
00:37:27 oligopol? Mam nadzieję, że do takiej
00:37:29 przyszłości nie dojdziemy. Szczerze
00:37:31 mówiąc, gdy patrzę na platformy
00:37:33 tworzenia aplikacji mobilnych, dziś są
00:37:35 one po prostu mniej interesujące.
00:37:37 częściowo dlatego, że są tam dwaj
00:37:39 strażnicy dostępu. Żeby zrobić coś na
00:37:41 smartfony, przynajmniej w Stanach
00:37:43 Zjednoczonych, trzeba mieć zgodę iOSa
00:37:46 albo Androida. Przez te zamknięte
00:37:48 platformy pewnych innowacji po prostu
00:37:50 nie wolno nam robić. Wielu z nas w AI
00:37:53 bardzo liczy, że nie skończy się to tym,
00:37:55 iż na drodze do budowania
00:37:56 najnowocześniejszych rozwiązań AI będą
00:37:59 stali tylko dwaj czy trzej strażnicy.
00:38:02 Jeśli tylko ktoś ma pomysł, chciałbym by
00:38:04 mógł bez przeszkód wprowadzać innowacje
00:38:07 na bazie dużych modeli językowych.
00:38:09 Dlatego modele open source i modele o
00:38:11 otwartych wagach są kluczowe, by
00:38:13 zapobiec powstaniu tej garstki
00:38:15 strażników. Jeśli dopilnujemy, by
00:38:17 wszyscy zachowali i zadbali o istnienie
00:38:20 wolności, innowacji, chociaż tej obecnie
00:38:23 mamy więcej w świecie AI niż właśnie na
00:38:25 przykład w świecie mobilnym, zobaczymy
00:38:27 więcej wynalazków świetnych aplikacji, a
00:38:30 społeczeństwo będzie dzięki nim znacznie
00:38:32 bogatsze.
00:38:38 Systemy tożsamości budują wspomnienia,
00:38:40 notatki w plikach, zewnętrzne bazy
00:38:43 danych i tak dalej. Czy naprawdę
00:38:45 potrzebujemy prawdziwego uczenia
00:38:47 ciągłego?
00:38:55 Jest jeszcze bardzo dużo pracy do
00:38:56 wykonania w obszarze uczenia ciągłego.
00:38:59 Uważam, że to obecnie jeden z ważnych
00:39:01 otwartych tematów badawczych w AI. Wiele
00:39:04 obecnych systemów pamięci opartych na
00:39:06 tekście działa tak, że AI robi to, co ma
00:39:08 zrobić, a potem zapisuje sporą porcję
00:39:11 tekstu do jakiejś agentowej pamięci. I
00:39:14 pytania brzmią, czy tekst naprawdę jest
00:39:16 wystarczająco dobrą reprezentacją
00:39:18 pamięci? Istnieją pewne badania nad
00:39:21 reprezentacjami nietekstowymi, ale
00:39:23 obecnie większość i tak kręci się wokół
00:39:26 tekstu. Do tego dochodzi fakt, że
00:39:28 budujemy te wszystkie systemy pamięci,
00:39:30 które w zasadzie nigdy nie aktualizują
00:39:32 wag LLM. Mam wrażenie, że przez to może
00:39:35 umykać nam kluczowy element tej
00:39:37 układanki. Niektóre z moich zespołów
00:39:40 miały pewne pomysły. Nie wiem jeszcze w
00:39:42 którą stronę pójdziemy, ale chodzi o
00:39:44 poprawę uczenia ciągłego.
00:39:47 Jeśli chodzi o rzeczy, które potrafią, a
00:39:50 nie potrafi,
00:39:52 jaka jest obecnie największa przeszkoda
00:39:54 w uczeniu ciągłym?
00:39:56 Powiedziałbym, że nie mamy dobrych
00:39:58 pomysłów. Nie jesteśmy pewni, które z
00:39:59 nich są właściwe. Jest ich naprawdę całe
00:40:02 mnóstwo. Nawet pan znam kilka pomysłów,
00:40:04 które uważam za obiecujące.
00:40:07 Na przykład
00:40:09 może pozwoli pan, że najpierw je
00:40:11 przetestuję, jak znajdę czas i dam panu
00:40:13 znać, jeśli coś zadziała. Szczerze
00:40:15 mówiąc nie wiem, czy coś w ogóle działa,
00:40:18 ale dla mnie to jedna z tych rzeczy.
00:40:19 Gdybyśmy zapytali gdzie jest wąskie
00:40:21 gardło w rozwiązaniu tego ogromnego,
00:40:23 nierozstrzygniętego problemu badawczego,
00:40:25 nie wiemy, bo ścieżka dojścia nie jest
00:40:27 jasna, więc nie potrafimy nawet wskazać
00:40:30 konkretnych wąskich gardeł. Po prostu
00:40:32 nie wiemy jak to zrobić. Czy uprząż ma
00:40:35 znaczenie, czy wszystko zależy, wie pan,
00:40:38 od samego konia pociągowego.
00:40:42 Czy uprząż kontrola ma znaczenie? Tak.
00:40:45 Mówimy o dużych modelach językowych.
00:40:47 Tak, dokładnie. Myślę, że ta otoczka
00:40:49 zapewniająca kontrolę i przewidywalność,
00:40:52 tak zwany harness, ma ogromne znaczenie.
00:40:54 Niesamowicie było obserwować jak
00:40:56 Antropik buduje Cloud COD, a wcześniej
00:40:59 też swoje SDK, żeby mieć pewność, że
00:41:02 oni, a może też inni, mają dobry harness
00:41:04 do korzystania z modelu w ten sposób. I
00:41:07 szczegóły tego harnessu, jak
00:41:09 strukturyzuje się prompt, jakie
00:41:11 narzędzia daje się LLMowi, wszystkie te
00:41:13 detale wciąż naprawdę mają znaczenie.
00:41:16 Podam mały przykład. Nasze obecne modele
00:41:18 są niezwykle inteligentne i coraz lepiej
00:41:20 radzą sobie z używaniem narzędzi, z
00:41:22 wykonywaniem wywołań funkcji. Mimo to,
00:41:25 jeśli damy naszemu modelowi zbyt wiele
00:41:27 narzędzi, zjada to sporą część kontekstu
00:41:30 wejściowego i znacznie częściej zaczyna
00:41:32 się gubić oraz wykonuje błędne wywołanie
00:41:35 API. Błędnie je wywołuje. Więc takie
00:41:38 niby drobiazgi może się wydawać, mamy
00:41:41 2026 rok. Dlaczego mamy się przejmować
00:41:44 takimi szczegółami inżynierskimi?
00:41:46 Okazuje się, że musimy, bo nadal dla
00:41:48 ogólnej wydajności robi to ogromną
00:41:50 różnicę. Wiele zespołów jak i ja, używa
00:41:53 MCP, protokołu integracji dla AI. A
00:41:56 jedną z praktycznych kwestii
00:41:58 inżynierskich jest to, że jeśli nasz
00:42:00 serwer MPC ma zbyt długą listę narzędzi,
00:42:03 to pochłania masę własnego kontekstu
00:42:05 wejściowego i tych narzędzi może być po
00:42:08 prostu za dużo, więc model nie potrafi
00:42:10 skutecznie ustalić, który z nich użyć.
00:42:12 Wtedy wchodzi inżynieria kontekstu i
00:42:14 czasem harness pomaga podejmować te
00:42:16 decyzje dużo płynniej.
00:42:19 Co z uczeniem ciągłym? Antropik
00:42:21 przewiduje, że problem uczenia ciągłego
00:42:23 zostanie rozwiązany do 202 roku. Czy pan
00:42:26 też tak przewiduje?
00:42:29 Czekam na moment, gdy problem uczenia
00:42:31 ciągłego zostanie rozwiązany. To byłoby
00:42:33 niesamowite. Byłoby wspaniale, gdyby
00:42:36 udało się to całkowicie rozwiązać w 2026
00:42:39 roku. Spodziewam się, że zrobimy
00:42:41 postępy. Uważam, że uczenie ciągłe jest
00:42:42 bardzo ważne.
00:42:44 Czy potrzebujemy więcej narzędzi dla
00:42:47 bezpieczeństwa AI?
00:42:50 Tak, powinniśmy stale działać, aby
00:42:52 systemy AI były coraz bardziej
00:42:54 niezawodne i mniej ryzykowne.
00:42:58 A zarazem, gdy patrzę na to wszystko,
00:43:00 ponieważ wszyscy wokół skupiają się na
00:43:02 tym, co przynosi zysk, na tym, co jest
00:43:04 opłacalne.
00:43:07 Wie pan, sądzę, że wielu ludzi byłoby
00:43:09 zaskoczonych, jak silny jest pogląd, że
00:43:11 w Dolinie Krzemowej liczą się tylko
00:43:13 pieniądze i nic poza tym, ale to jest po
00:43:15 prostu zupełnie błędne. Szczerze
00:43:17 powiedziawszy, mamy wielu znajomych
00:43:19 pracujących w różnych firmach. Osobiście
00:43:22 znamy wielu prezesów i tak istnieje
00:43:24 niewielka mniejszość, która dba
00:43:26 wyłącznie o zysk, ale to naprawdę
00:43:28 niewielki odsetek. Wielu moich znajomych
00:43:31 z wielu tych firm, ludzie, których znam
00:43:34 od dziesięcioleci, od co najmniej
00:43:35 dekady, naprawdę chcę postępować
00:43:37 właściwie. Dlatego zabezpieczenia
00:43:39 traktuje się bardzo poważnie.
00:43:41 Odpowiedzialną AI również. Ludzie
00:43:43 poświęcają mnóstwo czasu na rzetelne
00:43:46 burze mózgów o tym, co w systemie AI
00:43:48 może pójść dobrze albo źle i próbują
00:43:50 ograniczać ryzyka. Wiem, że istnieje
00:43:53 obraz fałszywy stereotyp, że w Dolinie
00:43:55 Krzemowej to banda kowbojów i kowbojek,
00:43:58 którzy dla zysku zrobią wszystko. To po
00:44:00 prostu kompletnie nieprawda. Niestety
00:44:02 prawdą jest, że w niewielkiej liczbie
00:44:04 firmy, gdy pojawia się pokusa zarobienia
00:44:06 miliardów dolarów, ta pokusa bywa silna,
00:44:09 ale uważam, że to naprawdę margines.
00:44:11 Bardzo mała, wręcz znikoma ilość ludzi,
00:44:13 którzy wybierają tę drogę.
00:44:19 Mam do pana kilka pytań dotyczących
00:44:21 kwestii edukacyjnych, gdyż jest pan
00:44:24 także świetnym komunikatorem. Stara się
00:44:27 pan jednocześnie dbać o świadomość
00:44:29 społeczną i o rozwój sztucznej
00:44:32 inteligencji.
00:44:37 Co przychodzi panu na myśl, gdy patrzy
00:44:39 pan na obecny etap rozwoju sztucznej
00:44:42 inteligencji?
00:44:45 Chcę umożliwić każdemu tworzenie AI.
00:44:48 Jako programista nie chcę już nigdy
00:44:50 ręcznie pisać kodu. Chcę, żeby AI pisała
00:44:53 za mnie jak największą część kodu.
00:44:55 Przyspieszenie inżynierii oprogramowania
00:44:57 dzięki AI jest bardzo wyraźne, ale dla
00:45:00 wielu osób mniej oczywiste jest to, że
00:45:03 ludzie, którzy nie są programistami,
00:45:05 wyszliby na tym o wiele lepiej, gdyby
00:45:08 tworzyli oprogramowanie i robili różne
00:45:10 rzeczy z AI, niż gdyby tego nie robili.
00:45:13 Naprawdę widzę to też w naszych
00:45:15 zespołach. Specjalista do spraw
00:45:16 marketingu, który umie korzystać z AI,
00:45:19 zaczyna zostawiać w tyle tych, którzy
00:45:21 tego nie potrafią. Moja dyrektor
00:45:23 finansowa w AI Fund pisze kod i robi
00:45:26 dzięki temu znacznie więcej niż jakaś
00:45:29 inna hipotetyczna dyrektorka finansowa,
00:45:31 która nie umie pisać kodu z użyciem AI.
00:45:34 To co obserwuję to, że dzięki narzędziom
00:45:37 AI, w tym w szczególności tworzeniu
00:45:39 oprogramowania z AI, jest to bardzo
00:45:42 ważna nowa kompetencja, którą powinni
00:45:44 mieć wszyscy. Gdy pojawiają się nowe
00:45:46 możliwości, wiele osób je wykorzysta,
00:45:49 podniesie głowę, będzie w stanie zrobić
00:45:51 dużo więcej i będzie mogła być znacznie
00:45:53 bardziej produktywna niż obecnie. Jednak
00:45:56 niestety będą też takie osoby, które nie
00:45:58 wykorzystają tych możliwości i które
00:46:01 niestety zostaną w tyle. Naprawdę się o
00:46:03 to martwię. Jednym z naszych większych
00:46:06 wyzwań jest to, że jeśli spojrzeć na
00:46:08 system uniwersytecki, wiele uczelni zbyt
00:46:11 wolno aktualizuje programy nauczania i
00:46:13 wciąż kształci studentów pod zawody z
00:46:16 2022 roku. Tyle że wiele z tych
00:46:19 stanowisk tak naprawdę już nie istnieje.
00:46:21 Pracodawcy nie chcą zatrudniać kogoś
00:46:24 przygotowanego jak student z 2022 roku.
00:46:27 Za to wielu pracodawców nie jest w
00:46:29 stanie znaleźć wystarczająco dużo osób,
00:46:32 które znają AI i potrafią ją tworzyć. I
00:46:35 nie mam na myśli inżynierów
00:46:36 oprogramowania. Sam nie mogę znaleźć
00:46:39 specjalistów do spraw marketingu,
00:46:40 rekruterów i specjalistów finansowych,
00:46:43 którzy naprawdę znają AI. A
00:46:45 przestawienie systemu edukacji tak, by
00:46:47 dać studentom, a także dorosłym
00:46:49 umiejętność korzystania z tych narzędzi
00:46:51 i wykonywania znacznie większej ilości
00:46:53 pracy będzie wymagało ogromnej zmiany
00:46:55 systemu edukacyjnego. Ale jak do tego
00:46:58 dojść w tej chwili? Wciąż wydaje mi się
00:46:59 to bardzo trudne.
00:47:02 Co stoi na przeszkodzie, aby AI
00:47:04 zastąpiła pana jako edukatora? Problem
00:47:06 baz danych, program nauczania?
00:47:09 Chciałbym to wiedzieć. Mój zespół
00:47:11 regularnie pisze AI, by mnie zastąpić.
00:47:13 za moją zgodą i zachętą. A jednak to
00:47:16 niemożliwe, prawda? Niestety, jak dotąd,
00:47:19 nie udało im się mnie zastąpić.
00:47:21 Podejrzewam, że jestem zbyt ogólną
00:47:22 formą. Może nie wiemy jak działa uczenie
00:47:25 się. Myślę, że jeśli kiedykolwiek
00:47:27 dojdziemy do AGI, to będzie to świetne.
00:47:29 Przechodzi pan na emeryturę, robi coś
00:47:31 innego. Zastąpienie wielu
00:47:33 wykwalifikowanych ludzi to już problem
00:47:35 AGI.
00:47:41 Wie pan, kiedy będę mógł na przykład
00:47:43 zapisać moje dziecko do szkoły nauki
00:47:46 jazdy w pełni opartej na AI?
00:47:49 Szkoła jazdy w pełni oparta na AI?
00:47:51 Właśnie to ciekawe pytanie. Być może
00:47:54 myślę, że w przypadku wąskich
00:47:55 specjalizacji nasza zdolność budowania
00:47:57 AI do obsługi takich niz będzie rosła
00:48:00 znacznie szybciej niż ta pełna nadziei
00:48:02 ogólna AI. Umiejętność prowadzenia
00:48:05 pojazdu to zresztą ciekawy przykład.
00:48:07 Okazuje się, że szkoły jazdy w Stanach w
00:48:09 pewnym stopniu padły ofiarą przejęcia
00:48:11 regulacyjnego. Dlatego wiele innowacji
00:48:13 wdrożono w innych krajach, na przykład
00:48:15 symulatory jazdy. Okazuje się, że w
00:48:17 wielu państwach symulatory jazdy wlicza
00:48:19 się do liczby przejechanych godzin, ale
00:48:21 nie w Stanach Zjednoczonych. Z tego
00:48:23 powodu w Stanach symulatory jazdy są
00:48:25 używane znacznie rzadziej niż w innych
00:48:27 krajach. Są więc takie dziwne rzeczy,
00:48:29 które bywają bardzo frustrujące. Uważam,
00:48:31 że Ameryka powinna częściej korzystać z
00:48:33 symulatorów jazdy, bo to bardzo
00:48:35 bezpieczny sposób uczenia młodzieży.
00:48:39 Odszedł pan z Bajdu w 2017 roku, prawda?
00:48:44 Jaki był powód, że zdecydował się pan
00:48:47 być tutaj? Czy to była etyka, czy coś
00:48:50 innego? Może polityka? Dlaczego
00:48:52 zdecydował się pan tu przenieść?
00:48:55 W BDU świetnie mi się pracowało.
00:48:57 Zabawne, że ludzie wciąż pytają, kiedy
00:48:59 się przenoszę. Z Google Brain do Corseri
00:49:01 czy później z BDU do prowadzenia AI
00:49:04 fund. Zawsze myślą, że kryje się w tym
00:49:06 coś więcej.
00:49:10 Oczywiście ja też
00:49:14 rozumiem. Czułem, że prowadząc zespół AI
00:49:16 w Bajdu miałem świetnych ludzi. Wykonali
00:49:19 oni znakomitą pracę, budując okręt
00:49:21 matkę, reklamę online, usprawnanie
00:49:24 wyszukiwania w sieci, wszystkie kluczowe
00:49:26 obszary firmy. Zespół naprawdę dowoził.
00:49:29 Pamiętam jak patrzyłem na schematy
00:49:31 organizacyjne i myślałem sobie: "Wiesz
00:49:33 co, gdyby mnie tu nie było, mają bardzo
00:49:35 dobry zespół, poradzą sobie beze mnie".
00:49:38 Zrozumiałem też, że najfajniejszą
00:49:40 częścią mojej pracy było tworzenie
00:49:42 nowych jednostek biznesowych. Świetnie
00:49:44 zarabialiśmy dla okrętu matki i byłem
00:49:47 dumny z tego, co zespół zrobił, ale ja
00:49:49 osobiście najwięcej radości miałem z
00:49:52 budowania nowych przedsięwzięć. Na
00:49:54 przykład w Bajdu kierowałem zespołem
00:49:56 rozwijającym autonomiczne samochody,
00:49:59 który do dziś bardzo dobrze radzi sobie
00:50:01 w Chinach. Prowadziłem też w Bajdu
00:50:03 zespół inteligentnego głośnika, coś jak
00:50:06 Alexa albo Hej Siri. I on również nadal
00:50:09 działa świetnie. Czułem, że choć
00:50:11 potrafię zarabiać dla okrętu matki, to
00:50:14 naprawdę angażuje mnie tworzenie nowych
00:50:16 biznesów. Zadałem więc sobie pytanie,
00:50:18 skoro w dużej firmie to zadziałało, to
00:50:21 może gdy zacznę coś innego, co
00:50:23 ostatecznie stało się inkubatorem
00:50:25 startupów AI fund i będę budować firmy
00:50:28 bardziej od zera, zamiast w realiach
00:50:30 wielkiej korporacji, to zadziała to
00:50:33 jeszcze lepiej. Dlatego odszedłem z
00:50:35 bajdu i założyłem Deep Learning AI, bo
00:50:38 chcę robić dużo więcej dla edukacji, aby
00:50:40 dawać ludziom narzędzia do budowania ze
00:50:42 wsparciem AI, a dodatkowo prowadzić AI
00:50:45 Fund, gdzie tworzymy startupy.
00:50:53 Czy uważa pan, że Chiny prowadzą w AI?
00:50:56 Uważam, że AI jest wielowymiarowa i
00:50:58 Chiny są przed stanami w niektórych
00:51:00 obszarach, na przykład w open source i
00:51:03 modelach otwartych, a Stany są przed
00:51:05 Chinami w innych, na przykład w modelach
00:51:07 własnościowych.
00:51:08 Więc nie żałuje pan swojego wyboru.
00:51:12 Myślę, że świetnie się bawiłem pracując
00:51:14 z zespołami w Chinach. Świetnie mi się
00:51:16 też pracowało z Deep Learning AI, AI
00:51:19 Fund, a ostatnio z AIPE i Landing AI.
00:51:23 Więc tak, jestem z tego zadowolony.
00:51:25 Jestem bardzo zadowolony z tego, co
00:51:26 robię. Niczego nie żałuję.
00:51:30 Z czystej perspektywy skali, czy Chiny
00:51:33 nie mają więcej siły przebicia? Może też
00:51:37 kultury naukowej.
00:51:39 Pamiętam, że wróciliśmy z Dubaju,
00:51:41 przeprowadziliśmy wywiad z jednym z
00:51:43 badaczy z Chin. Jestem pod ogromnym
00:51:46 wrażeniem, jak ważna jest dla nich
00:51:48 nauka.
00:51:53 Chiny mają wiele atutów. Stany
00:51:55 Zjednoczone też mają wiele atutów. Mam
00:51:58 poczucie, że choć ten świat nie jest
00:52:00 doskonały, ja kocham Amerykę i świat
00:52:03 Zachodu. I choć w jednych okresach
00:52:05 wydaje się, że demokracja działa lepiej,
00:52:07 a w innych gorzej, to jest to ważny
00:52:10 filar tego, jak funkcjonujemy w Ameryce.
00:52:12 I uważam, że wciąż jest tu dużo dobrej
00:52:14 pracy do wykonania i cieszę się, że mogę
00:52:17 to kontynuować.
00:52:19 Czego
00:52:23 możemy oczekiwać od pana firmy Deep
00:52:25 Learning AI w tym roku i w kolejnych
00:52:28 latach?
00:52:32 Od Andrew NG.
00:52:35 Zachęcałbym każdego, żeby tworzył z
00:52:37 wykorzystaniem AI. Bardzo mocno
00:52:39 koncentrowaliśmy się na tym, by pomagać
00:52:41 programistom uzyskiwać dostęp do
00:52:43 najnowszych narzędzi i nadal ciężko nad
00:52:45 tym pracujemy. A oprócz realnego
00:52:48 wspierania twórców AI, pomagamy im
00:52:50 budować kariery i je rozwijać. Ja
00:52:52 naprawdę chcę poszerzyć to, co robimy,
00:52:54 aby dać programistom i wszystkim innym
00:52:55 możliwość tworzenia z AI. Na tym właśnie
00:52:58 skupia się Deep Learning AI i to jest
00:53:00 jeden z powodów, dla których odszedłem z
00:53:02 bajdu. Tak naprawdę zauważyłem to
00:53:04 zarówno wtedy, gdy kierowałem zespołem w
00:53:07 Google, jak i w Bidu. Są biznesy, które
00:53:09 jest sens budować w ramach Google i
00:53:11 takie, które jest sens budować w Bidu.
00:53:14 Ale są też inne rzeczy, jak choćby
00:53:15 zgodność z przepisami celnymi. Dlaczego
00:53:18 firma internetowa miałaby się tym
00:53:20 przejmować? Dlatego AI fund buduje wiele
00:53:23 różnych startupów i ta różnorodność
00:53:25 tematów, nad którymi możemy pracować w
00:53:27 AI fund, daje mi satysfakcję. AI, czyli
00:53:31 stosunkowo nowa inicjatywa to projekt,
00:53:33 nad którym pracuję z moją przyjaciółką
00:53:36 Kirsty Tan. Pracujemy nad doradztwem AI
00:53:39 dla dużych przedsiębiorstw. Okazuje się,
00:53:41 że jeśli chce się naprawdę znacząco
00:53:43 przyspieszyć wdrażanie AI, programiści
00:53:45 są ważni, indywidualni konsumenci są
00:53:48 ważni, ale musimy też doprowadzić do
00:53:50 tego duże firmy. Dlatego poświęcamy temu
00:53:52 sporo czasu we współpracy z firmą BINE i
00:53:55 innymi. BINE to fantastyczny zespół,
00:53:58 naprawdę niezwykle bystry. Mam zaszczyt
00:54:01 pracować z Kristofem, jego zespołem, po
00:54:03 to, by doradzać dużym firmom jak tworzyć
00:54:05 realną wartość i jak naprawdę wygrywać
00:54:07 dzięki AI.
00:54:09 Tak na marginesie zdecydował się pan
00:54:11 też, jak sądzę, być edukatorem,
00:54:13 komunikatorem AI. Jaki był powód,
00:54:16 dlaczego tak dużo pan uczy?
00:54:19 Zbudował pan swoją karierę i firmę,
00:54:22 pytam o kurserę, ale też o coś więcej,
00:54:24 bo Deep Learning AI to w dużej mierze
00:54:26 edukacja.
00:54:31 Dotyka pan czegoś związanego z samymi
00:54:33 fundamentalnymi wartościami? Powiem
00:54:36 panu, jak ustalam priorytety w tym, co
00:54:38 robię. Myślę, że są dwie rzeczy, które
00:54:40 stawiam najwyżej i w które naprawdę
00:54:42 wierzę. Uważam to za właściwe
00:54:44 wykorzystanie mojego ograniczonego
00:54:46 czasu. Pierwsza to działania, które
00:54:48 czynią ludzkość potężniejszą. Dlatego
00:54:51 zostałem naukowcem. Zostałem profesorem
00:54:53 na Stanfordzie, bo uważam, że badania
00:54:55 naukowe i przesuwanie granic tego, co
00:54:57 możliwe czynią ludzkość potężniejszą
00:55:00 dzięki wynajdywaniu nowych technologii.
00:55:02 Wierzę, że to sprawia, że ludzkość jest
00:55:04 potężniejsza. Druga rzecz, w którą
00:55:06 głęboko wierzę, to pomaganie innym w
00:55:08 realizacji ich marzeń. Ważne jest, aby
00:55:10 pomagać innym realizować ich marzenia, a
00:55:13 nie tylko pomagać innym realizować moje
00:55:15 marzenia. To istotna różnica i przez
00:55:18 całe życie czułem, że jeśli możemy dać
00:55:20 innym narzędzia i umiejętności, to
00:55:22 stawia ich to w lepszej sytuacji, by
00:55:24 mogli realizować swoje marzenia. Dlatego
00:55:26 właśnie edukacja poprzez Deep Learning
00:55:29 AI, kurserę zawsze była czymś, co zawsze
00:55:31 uważałem za bardzo motywujące.
00:55:35 Czy jest coś, czego pan żałuje, gdy
00:55:37 patrzy pan na swoją historię? Gdyby mógł
00:55:40 pan cofnąć czas? Czy zrobiłby pan
00:55:42 dokładnie to samo, a może coś inaczej?
00:55:45 Jest tak wiele rzeczy, które można robić
00:55:46 inaczej. Szczerze mówiąc, nie wiem.
00:55:48 Miałem szczęście podjąć kilka dobrych
00:55:50 decyzji, ale podjąłem też wiele tych
00:55:52 złych. Myślę, że jest mnóstwo kwestii w
00:55:54 rodzaju, czy powinienem był zatrudnić tę
00:55:56 konkretną osobę albo zrobić ten
00:55:58 konkretny projekt. Czy nie powinienem
00:56:00 był pracować nad tym projektem ciężej,
00:56:02 zamiast się poddać?
00:56:09 Mam jeszcze tylko jedno ostatnie pytanie
00:56:11 do pana, ale bardzo dla mnie ważne.
00:56:13 Gdyby mógł pan znaleźć odpowiedź na
00:56:16 jedno pytanie o rzeczywistość, to jakie
00:56:18 by ono było?
00:56:27 Chciałbym zrozumieć na czym polega
00:56:29 istota inteligencji.
00:56:32 Ma pan na myśli świadomość?
00:56:35 Materia jest przekształcana w świadomość
00:56:37 wewnątrz ludzkiego mózgu. Czy chodzi o
00:56:39 coś więcej? Właściwie nie chodzi o
00:56:41 świadomość. Dziękuję panu bardzo za
00:56:43 poświęcony czas. Yeah.

Comments (0)

Rated 0 out of 5 based on 0 voters
There are no comments posted here yet

Leave your comments

  1. Posting comment as a guest. Sign up or login to your account.
Rate this post:
0 Characters
Attachments (0 / 3)
Share Your Location