1/ Chci říci jasně: ve všech odvětvích, zejména v AI, je důležité podporovat ty dobré. Anthropic je jedním z těch dobrých. Další myšlenky o tom, proč potřebujeme podporovat inovace a zároveň mluvit o bezpečnosti:
Obvykle se snažím vyhýbat přímým komentářům k hyperscalerům (vedl jsem první kolo OpenAI a Greylock je investorem v Anthropic). Ale cítím velmi silně, že je důležité se k tomu vyjádřit. Řekl bych níže uvedené stejně silně, i kdyby žádná investice neexistovala.
Anthropic se spolu s některými dalšími (včetně Microsoftu, Googlu a OpenAI) snaží nasadit umělou inteligenci správným způsobem, promyšleně, bezpečně a nesmírně prospěšně pro společnost. Proto jim intenzivně fandím
Některé další laboratoře dělají rozhodnutí, která jasně ignorují bezpečnost a společenský dopad (např. boti, kteří se někdy stávají plně fašistickými) a to je volba. Stejně tak rozhodnutí nepodporovat je.
Extrémní argumenty na obou stranách problému se často používají k odbývání skutečných, promyšlených a logických argumentů. Dělat to je intelektuálně nečestné nebo idiotské.
Redukce toho, co by mělo být společenskou konverzací o zodpovědném používání technologií umělé inteligence, na řadu otřepaných frází nebo poplašných zvonů nepomůže miliardám lidí, kterým umělá inteligence změní životy (většina z nich tento tweet nikdy nepřečte).
Na mnoha místech, včetně mé letošní knihy SuperAgency, jsem silně prosazoval mírné regulační prostředí, které upřednostňuje inovace a umožňuje novým hráčům soutěžit za rovných podmínek.
Být pro bezpečnost umělé inteligence neznamená být pro jazykovou policii: například existují kritická témata bezpečnosti umělé inteligence v oblasti biologické bezpečnosti a kybernetické bezpečnosti, o kterých je třeba diskutovat.
Žijeme z výhod průmyslové revoluce, ale historie nám také ukázala velké chyby, kterých se lidstvo při přechodu dopustilo. Učme se a inovujme, abychom tentokrát zvládli přechod mnohem lépe.
V zásadě platí, že nejjistějším způsobem, jak předejít špatné budoucnosti, je směřovat k lepší, která svou existencí ztěžuje dosažení výrazně horších výsledků. Jinými slovy, pracujte na lepší budoucnosti – ne se pokoušejte jednoduše zastavit konkrétní imaginární špatnou budoucnost.
Výsledky doomeru a bloomeru umělé inteligence jsou souborem pravděpodobností, nikoli jistot. Naše činy neustále vychylují šance k lepším nebo horším výsledkům
Všichni v údolí máme zodpovědnost "kormidlovat" budoucnost prostřednictvím dialogu a hledání cesty vpřed, která vyvažuje bezpečnost, inovace a humanismus.
To není v žádném případě "radikální" pojetí. Historie nám říká, že cesta k lepšímu světu vede přes dialog, technologie a opakované nasazování. Anthropic, OpenAI a mnoho dalších to prožívají každý den.
1,04M