Główny Inny Sam Altman, Grimes i inni ostrzegają A.I. Stanowi zagrożenie wyginięciem

Sam Altman, Grimes i inni ostrzegają A.I. Stanowi zagrożenie wyginięciem

Jaki Film Można Zobaczyć?
 
  Sam Altman w niebieskiej kurtce i białej koszuli.
Sam Altman w Paryżu na początku tego miesiąca. Joel Saget/AFP za pośrednictwem Getty Images

Postęp sztucznej inteligencji może doprowadzić do końca ludzkiej egzystencji, jaką znamy, zgodnie z niezwykle krótkim listem otwartym opublikowanym wczoraj (30 maja) i podpisanym przez dyrektorów dużych technologii, naukowców zajmujących się sztuczną inteligencją, naukowców i, co nieco nie na miejscu, muzyka Grimesa .



„Zmniejszanie ryzyka wyginięcia ze strony A.I. powinno być globalnym priorytetem wraz z innymi zagrożeniami na skalę społeczną, takimi jak pandemie i wojna nuklearna”. oświadczenie czyta. Została ona opublikowana przez Centrum A.I. Safety (CAIS), organizacja non-profit zajmująca się ochroną wdrażania technologii.








Krótkie ostrzeżenie, które nie zawierało informacji kontekstowych dotyczących jego poważnych przypuszczeń, następuje po dwóch niedawnych listach otwartych nawiązujących do potencjalnych zagrożeń stwarzanych przez A.I. badania i wdrożenia.



W marcu ponad 1000 ekspertów branżowych, w tym Elon Musk i współzałożyciel Apple Steve Wozniak podpisał list wzywając do sześciomiesięcznej przerwy w A.I. rozwoju w celu zbadania ryzyka i opracowania protokołów bezpieczeństwa. W następnym miesiącu ukazał się kolejny list przez członków Association for the Advancement of Artificial Intelligence, m.in Microsoftu dyrektor naukowy Eric Horvitz, ostrzegając przed zdolnością sztucznej inteligencji do wzmacniania złych aktorów.

Pilność dwóch poprzednich wiadomości blednie w porównaniu z zwięzłym oświadczeniem CAIS, które twierdzi, że jego celem jest „tworzenie powszechnej wiedzy o rosnącej liczbie ekspertów i osób publicznych, które również poważnie traktują niektóre z najpoważniejszych zagrożeń związanych z zaawansowaną sztuczną inteligencją. ”






Poza Grimes, inni niespodziewani zwolennicy listu to podcaster Sam Harris, szef TED Chris Anderson i Kersti Kaljulaid, była prezydent Republiki Estonii. Jednak sygnatariusze, którzy się wyróżniają, to nie ci, którzy wydają się nie na miejscu, ale raczej ci, którzy zbudowali kariery na technologii, o której ostrzegają, że może spowodować wyginięcie.



Sam Altman, dyrektor generalny OpenAI

Sam Altman, szef twórcy ChatGPT OpenAI , podpisał list wraz ze współzałożycielami Ilyą Sutskever, Johnem Schulmanem i trzema innymi dyrektorami OpenAI.

przezroczysty sezon 1 odcinek 7

Uruchomiona po raz pierwszy w 2015 roku jako organizacja non-profit mająca na celu rozwój sztucznej inteligencji. w bezpieczny sposób firma przeszła na hybrydę model „ograniczonego zysku”. w 2019 roku. W listopadzie wydał A.I. chatbot ChatGPT, który szybko stał się wirusowy i wzbudził obawy dotyczące jego potencjału pisać zadania do szkoły I wymienić siłę roboczą.

Wycena rynkowa OpenAI była od 27 do 29 miliardów dolarów od kwietnia.

Pomimo swojego poparcia dla pilnego ostrzeżenia zawartego w liście, Altman wcześniej chwalił rozwój coraz bardziej wyrafinowanej sztucznej inteligencji. systemy. „Ta rewolucja stworzy fenomenalne bogactwo”, powiedział w a Wpis na blogu 2021 . „Cena wielu rodzajów pracy (która napędza koszty towarów i usług) spadnie do zera, gdy wystarczająco potężna sztuczna inteligencja „dołączy do siły roboczej”.

Geoffrey Hinton, AI pionier

Dwóch członków trio informatyków znanych jako „ojcowie chrzestni sztucznej inteligencji” zobowiązały się również do poparcia dla ostatniego listu.

Sygnatariusze Geoffrey Hinton i Yoshua Bengio pracowali w AI. dziedzinie od dziesięcioleci i wraz z Yannem LeCunem pomogli położyć podwaliny pod rozwój tej technologii. Cała trójka otrzymała nagrodę Turinga w 2018 roku.

Hinton i Bengio, obecnie profesorowie odpowiednio na Uniwersytecie w Toronto i Universite de Montreal, wyrazili zaniepokojenie postępami sztucznej inteligencji.

Na początku tego miesiąca Hinton powiedział New York Times rzucił pracę o godz Google wypowiadać się na temat zagrożeń związanych z A.I ., dodając, że teraz żałuje pracy swojego życia. „Trudno zobaczyć, jak można powstrzymać złych aktorów przed używaniem go do złych rzeczy” – powiedział.

Bengio wyrażali podobne uczucia Do BBC dzisiaj (31 maja), ujawnienie zagrożenia ze strony sztucznej inteligencji sprawiło, że zakwestionował swoje lata badań. „Można powiedzieć, że czuję się zagubiony” – powiedział.

Tymczasem LeCun, szef A.I. naukowiec z Meta, zdecydował się nie podpisywać listu.

odwrotny adres wyszukiwania numeru telefonu

Demis Hassabis, dyrektor generalny Google DeepMind

Kilku pracowników Google, w tym ponad dziesięciu pracujących dla sztucznej inteligencji zajmującej się uczeniem maszynowym. startup DeepMind, są sygnatariuszami oświadczenia. Na liście znajduje się dyrektor generalny i współzałożyciel DeepMind, Demis Hassabis, który wcześniej pracował jako AI. programista gier wideo w firmach Lionhead i Elixir.

DeepMind został zakupiony przez Google w 2014 roku za około 500 milionów dolarów. Hassabis wezwał firmę do zachowania ostrożności i twierdzi, że sztuczna inteligencja ogólna (A.G.I) , termin odnoszący się do komputerów o zdolnościach poznawczych porównywalnych z ludzkimi, może pojawić się w ciągu najbliższej dekady .

„Popierałbym nie poruszają się szybko i niszczą rzeczy” — powiedział Hassabis Czas w styczniu, dodając, że wierzy, że zyski z A.G.I. należy rozłożyć równomiernie.

produkty odchudzające, które działają

Jednak dywizja Hassabisa nabiera rozpędu w ciągu ostatnich kilku miesięcy. Google DeepMind powstał w kwietniu, po połączeniu przez Google oddziałów DeepMind i Brain skupionych na sztucznej inteligencji w celu „ przyspieszyć postęp w kierunku świata, w którym sztuczna inteligencja może pomóc rozwiązać największe wyzwania stojące przed ludzkością ”. A na początku tego roku Google ogłoszone w wynikach za IV kw. 2022 r że informacje finansowe DeepMind będą teraz zgłaszane w ramach kosztów korporacyjnych Alphabet, ponieważ są coraz częściej wykorzystywane przez firmę.

Grimes, muzyk i producent

Grimes, eklektyczna muzyczka i była romantyczna partnerka współzałożyciela OpenAI, Muska, przez całą swoją karierę eksperymentowała z technologią, w szczególności używając jej do tworzenia sztuczna inteligencja kołysanka dla syna i an sztuczna inteligencja chatbot wyszkolona z własnych manier.

„Myślę, że A.I. jest super” – powiedziała New York Times. „Po prostu czuję, że twórczo myślę, że A.I. może zastąpić człowieka”.

Najnowsza wersja A.I. projekt Grimesa, którego prawdziwe nazwisko to Claire Boucher, został wydany w tym miesiącu w postaci Elf.Tech, sztuczna inteligencja program, który pozwala fanom powielać jej wokale tworzyć własne piosenki. „Podoba mi się pomysł otwartego pozyskiwania całej sztuki i zabijania praw autorskich” napisał na Twitterze artysta, który oferuje 50-procentowy podział tantiem za udane piosenki pochodzące z AI. program.

Dario Amodei, dyrektor generalny Anthropic

Antropiczny Dario Amodei poparł oświadczenie wraz ze współzałożycielami Jaredem Kaplanem i Chrisem Olahem. List podpisała również jego siostra Daniela Amodei, prezes Anthropic.

Amodei pracował wcześniej w Google, Baidu i OpenAI, zanim opuścił tę ostatnią firmę w 2020 roku, aby kierować własną sztuczną inteligencją. uruchomienie, który w marcu został wyceniony na 4,1 miliarda dolarów .

Startup wspierany przez Google również zebrał 450 milionów dolarów w rundzie finansowania w tym miesiącu największy A.I. rundy finansowania w 2023 r. od czasu inwestycji Microsoft w OpenAI na początku tego roku.

Głównym produktem Anthropic jest Claude, chatbot, który zaczął testować w styczniu z wybraną grupą użytkowników. Claude został wyszkolony z zestawem wskazówek moralnych aby uniknąć obraźliwych odpowiedzi ze strony A.I. narzędzie do czatu, które czerpie z Deklaracji Praw Człowieka ONZ i zasad prywatności danych firmy Apple. Proces startupu polegający na stworzeniu „nieszkodliwej sztucznej inteligencji” asystent” został ułożony w Biała księga z grudnia .

Na początku tego miesiąca, obok innych A.I. Prezesi tacy jak Altman, Amodei spotkał się z prezydentem Bidenem omówić, jak wdrożyć regulacje w A.I. przemysłu w celu ograniczenia ryzyka.

Kevin Scott, CTO w Microsoft

Dyrektorzy z A.I. Potężna firma Microsoft również podpisała list, w tym dyrektor ds. Technologii firmy, Kevin Scott.

Microsoft jest inwestorem w OpenAI – partnerstwie przedłużonym w styczniu wielomiliardową transakcją. Zasila swoją wyszukiwarkę Bing za pomocą ChatGPT.

Scott, który powiedział, że rok 2023 będzie „t on najbardziej ekscytujący rok, w którym A.I. społeczność kiedykolwiek miała, ” twierdzi, że Microsoft ulepsza swoją odpowiedzialną sztuczną inteligencję. procesy zaprojektowane w celu złagodzenia szkód powodowanych przez technologię.

Ale pomimo podpisania oświadczenia, w którym twierdzi się, że A.I. ma potencjał zniszczenia ludzkiej cywilizacji, Scott jest autorem książki 2020 Przeprogramowanie amerykańskiego snu , który twierdzi, że A.I. może zrewolucjonizować przedsiębiorczość w miejscowościach wiejskich. Microsoft mocno skupił się również na sztucznej inteligencji. w ostatnich miesiącach, twierdząc pchnięcie spowoduje wzrost zysków dla firmy w czasie.

Co przyniesie kolejny list otwarty?

Fakt, że tak wielu sygnatariuszy ma powiązania finansowe z A.I. firm badawczo-rozwojowych skłoniło niektórych do zastanowienia się, czy niedawne wezwania do ostrożności to chwyt PR, czy może sposób na uzyskanie przewagi konkurencyjnej w coraz bardziej zatłoczonej branży.

Na początku tego miesiąca pytano o CTO firmy Microsoft równowaga między dużym AI firm poszukujących regulacji, które tylko im sprzyjają oraz krajobraz regulacyjny składający się z mniejszych konkurencyjnych start-upów. „Myślę, że powinniśmy mieć jedno i drugie”, powiedział Scott Skraj . „Nie sądzę, aby istniała a priori kwestia, w której jedno wyklucza drugie”.

Altman wezwał również do większej regulacji w AI. przemysłu, wyrażając obawy, że technologia ta może zostać wykorzystana przez autorytarne reżimy lub wykorzystana do cyberataków, jednak jego pragnienie nadzoru regulacyjnego wydaje się być selektywne, ponieważ Altman również wcześniej twierdził, że OpenAI może opuścić UE ze względu na potencjalne „przeregulowanie” regionu A.I.

Koncentrując się na niepokojących, ale mało prawdopodobnych konsekwencjach sztucznej inteligencji wdrażanie odwraca uwagę organów regulacyjnych od rzeczywistych zagrożeń stwarzanych przez sztuczną inteligencję, zasugerował profesor prawa Uniwersytetu Waszyngtońskiego, Ryan Calo w serii tweetów . „Zajmowanie się bezpośrednim wpływem sztucznej inteligencji na pracę, prywatność lub środowisko jest kosztowne. Ochrona przed sztuczną inteligencją jakoś się nie budzi”.

przywrócić kogoś do życia

Artykuły, Które Możesz Lubić :