Trzecią cechą jest to, że imperia monopolizują produkcję wiedzy. Tak więc w ciągu ostatnich 10 lat widzieliśmy, jak branża AI monopolizuje coraz więcej badaczy AI na świecie. Tak więc naukowcy AI nie przyczyniają się już do otwartych nauki, pracy na uniwersytetach lub niezależnych instytucjach, a wpływ na badania jest tym, co można by sobie wyobrazić, gdyby większość naukowców klimatycznych na świecie była bankrowana przez firmy naftowe i gazowe. Nie otrzymasz jasnego obrazu, a my nie otrzymujemy jasnego obrazu, ograniczeń tych technologii lub jeśli istnieją lepsze sposoby opracowania tych technologii.
Czwarta i ostatnia funkcja polega na tym, że imperia zawsze angażują się w tę agresywną retorykę rasową, w której istnieją dobre imperia i złe imperia. I oni, dobro imperium, muszą być wystarczająco silni, aby pobić imperium zła, i dlatego powinni mieć nieograniczoną licencję na spożywanie wszystkich tych zasobów i wykorzystania całej tej siły roboczej. A jeśli Empire Empire otrzyma technologię, ludzkość idzie do piekła. Ale jeśli dobre imperium otrzyma technologię jako pierwszy, cywilizują świat, a ludzkość może pójść do nieba. Tak więc na wielu różnych poziomach, podobnie jak motyw Empire, czułem, że był to najbardziej wszechstronny sposób, aby nazwać dokładnie sposób, w jaki działają te firmy i dokładnie ich wpływ na świat.
Niall Firth: Tak, genialne. To znaczy, mówisz o imperium zła. Co się stanie, jeśli imperium zła dostanie to pierwszy? A na szczycie wspomniałem AGI. Dla mnie to prawie jak dodatkowa postać w książce. To trochę zbliża się do wszystkiego, podobnie jak duch na uczcie, mówienie, że to jest to, co motywuje wszystko w Openai. Do tego musimy dotrzeć, zanim ktokolwiek do tego dojdzie.
W książce jest trochę o tym, jak rozmawiają wewnętrznie w Openai, na przykład, musimy upewnić się, że AGI jest w nas w rękach, gdzie jest bezpieczna w porównaniu z jakimkolwiek indziej. A niektórzy z międzynarodowych pracowników są otwarcie jak – to dziwny sposób na to, prawda? Dlaczego amerykańska wersja AGI jest lepsza niż inni?
Opowiedz nam trochę o tym, jak napędza to, co robią. A AGI nie jest nieunikniony fakt, że tak się dzieje, prawda? To jeszcze nie jest coś.
Karen Hao: Nie ma nawet zgody na to, czy jest to nawet możliwe, czy też w ogóle. Był ostatnio New York Times Historia Cade Metz, która powołując się na ankietę wśród długoletnich badaczy AI w tej dziedzinie, a 75% z nich nadal uważa, że nie mamy jeszcze technik do dotarcia do AGI, cokolwiek to znaczy. Najbardziej klasyczną definicją lub zrozumieniem tego, czym jest AGI, jest w pełni odtworzyć ludzką inteligencję w oprogramowaniu. Ale problem polega na tym, że nie mamy również konsensusu naukowego w sprawie ludzkiej inteligencji. I więc jednym z aspektów, o których dużo mówię w książce, jest to, że kiedy istnieje próżnia wspólnego znaczenia wokół tego terminu i jak by to wyglądało, kiedy do tego doszliby? Jakie możliwości powinniśmy oceniać te systemy, aby ustalić, że tam dotarliśmy? Zasadniczo może to być wszystko, czego chce OpenAi.
To trochę po prostu ta zawsze obecna bramka, która ciągle się zmienia, w zależności od tego, dokąd chce iść firma. Wiesz, mają pełny zasięg, różnorodne definicje, których używali przez lata. W rzeczywistości mają nawet żart wewnętrznie: jeśli zapytasz 13 badaczy Openai, czym jest AGI, otrzymasz 15 definicji. Są więc pewne, że nie jest to tak naprawdę realny termin i tak naprawdę nie ma tak dużego znaczenia.
Ale służy to stworzeniu rodzaju quasi-religijnego zapału wokół tego, co robią, gdzie ludzie myślą, że muszą jechać w kierunku tego horyzontu, i że pewnego dnia, kiedy tam dotrą, będzie to miało wpływ cywilizacyjny. A zatem, nad czym jeszcze powinieneś pracować w swoim życiu, ale to? A kto jeszcze nad tym powinien pracować, ale ty?
