Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
1/ Jeg vil si rett ut: i alle bransjer, spesielt innen AI, er det viktig å støtte de gode gutta.
Antropisk er en av de gode gutta.
Flere tanker om hvorfor vi må drive innovasjon og snakke om sikkerhet samtidig:
Jeg prøver vanligvis å unngå å kommentere direkte på hyperscalerne (jeg ledet OpenAIs første runde, og Greylock er en investor i Anthropic).
Men jeg føler veldig sterkt at det er viktig å kommentere her. Jeg vil si nedenfor like sterkt selv om det ikke eksisterte noen investering.
Anthropic, sammen med noen andre (inkl. Microsoft, Google og OpenAI) prøver å distribuere AI på riktig måte, gjennomtenkt, trygt og enormt gunstig for samfunnet.
Det er derfor jeg heier intenst på suksessen deres.
Noen andre laboratorier tar beslutninger som tydelig ser bort fra sikkerhet og samfunnspåvirkning (f.eks. roboter som noen ganger blir fullfascistiske), og det er et valg.
Det samme er å velge å ikke støtte dem.
Ekstreme argumenter på begge sider av en sak brukes ofte til å børste bort ekte, gjennomtenkte og logiske argumenter. Å gjøre det er intellektuelt uærlig eller idiotisk.
Å redusere det som burde være en samtale på samfunnsnivå om ansvarlig bruk av AI-teknologi til en rekke floskler eller alarmklokker er ikke nyttig for de milliarder av mennesker som vil få livene sine endret av AI (hvorav de fleste aldri vil lese denne tweeten).
Mange steder, inkludert boken min i år SuperAgency, har jeg tatt sterkt til orde for et lett regulatorisk landskap som prioriterer innovasjon og gjør det mulig for nye aktører å konkurrere på like vilkår.
Å være pro-AI-sikkerhet er ikke å være pro-språklig politi: for eksempel er det kritiske AI-sikkerhetstemaer innen biosikkerhet og cybersikkerhet som må diskuteres.
Vi lever fordelene av den industrielle revolusjonen, men historien har også vist oss de store feilene menneskeheten gjorde i overgangen.
La oss lære og innovere for å navigere i overgangen mye bedre denne gangen.
I bunn og grunn er den sikreste måten å forhindre en dårlig fremtid på å styre mot en bedre som ved sin eksistens gjør betydelig dårligere resultater vanskeligere å oppnå.
Med andre ord, arbeid mot en bedre fremtid – ikke prøv å bare stoppe en bestemt forestilt dårlig fremtid.
AI-dommedags- og bloomer-utfallene er et sett med sannsynligheter, ikke sikkerheter. Våre handlinger vipper hele tiden oddsen mot bedre eller dårligere resultater
Alle vi i dalen har et ansvar for å "styre" fremtiden gjennom dialog, og finne ut en vei fremover som balanserer sikkerhet, innovasjon og humanisme.
Dette er ikke en "radikal" oppfatning på noen måte. Historien forteller oss at veien til en bedre verden er gjennom dialog, teknologi og iterativ distribusjon.
Anthropic, OpenAI og mange andre lever dette hver dag.
692,24K
Topp
Rangering
Favoritter