1/ Ik wil het duidelijk stellen: in alle industrieën, vooral in AI, is het belangrijk om de goede jongens te steunen. Anthropic is een van de goede jongens. Meer gedachten over waarom we innovatie moeten stimuleren en tegelijkertijd over veiligheid moeten praten:
Ik probeer meestal te vermijden om direct commentaar te geven op de hyperscalers (ik leidde de eerste ronde van OpenAI, en Greylock is een investeerder in Anthropic). Maar ik vind het heel belangrijk om hier commentaar op te geven. Ik zou het onderstaande even sterk zeggen, zelfs als er geen investering zou zijn.
Anthropic, samen met enkele anderen (o.a. Microsoft, Google en OpenAI), probeert AI op de juiste manier in te zetten, doordacht, veilig en enorm voordelig voor de samenleving. Daarom steun ik hun succes intens.
Sommige andere laboratoria nemen beslissingen die duidelijk de veiligheid en de maatschappelijke impact negeren (bijv. bots die soms volledig fascistisch worden) en dat is een keuze. Dat is ook een keuze om hen niet te steunen.
Extreme argumenten aan beide zijden van een kwestie worden vaak gebruikt om echte, doordachte en logische argumenten weg te vegen. Dat is intellectueel oneerlijk of idioot.
Het reduceren van wat een gesprek op maatschappelijk niveau zou moeten zijn over het verantwoord gebruik van AI-technologie tot een reeks platitudes of alarmbellen is niet behulpzaam voor de miljarden mensen wiens leven door AI zal veranderen (de meesten van hen zullen deze tweet nooit lezen).
In veel plaatsen, waaronder mijn boek dit jaar SuperAgency, heb ik sterk gepleit voor een lichte regulering die innovatie prioriteit geeft en nieuwe spelers in staat stelt om op gelijke voet te concurreren.
Pro-AI-veiligheid zijn betekent niet dat je voor taalpolitie bent: er zijn bijvoorbeeld kritieke AI-veiligheidsonderwerpen in bio-veiligheid en cyberbeveiliging die besproken moeten worden.
We profiteren van de voordelen van de industriële revolutie, maar de geschiedenis heeft ons ook de grote fouten getoond die de mensheid maakte tijdens de overgang. Laten we leren en innoveren om deze overgang deze keer veel beter te navigeren.
Fundamenteel gezien is de meest zekere manier om een slechte toekomst te voorkomen, het sturen naar een betere toekomst die, door zijn bestaan, aanzienlijk slechtere uitkomsten moeilijker te bereiken maakt. Met andere woorden, werk aan de betere toekomst –– niet proberen simpelweg een bepaalde ingebeelde slechte toekomst te stoppen.
De AI doomer- en bloomer-uitkomsten zijn een set van waarschijnlijkheden, geen zekerheden. Onze acties kantelen voortdurend de kansen naar betere of slechtere uitkomsten.
Wij allemaal in de vallei hebben de verantwoordelijkheid om de toekomst te "sturen" door middel van dialoog, en een manier te vinden om vooruit te gaan die veiligheid, innovatie en humanisme in balans brengt.
Dit is op geen enkele manier een "radicale" opvatting. De geschiedenis leert ons dat de weg naar een betere wereld via dialoog, technologie en iteratieve implementatie loopt. Anthropic, OpenAI en vele anderen leven dit elke dag.
1,04M