Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
1/ Jag vill säga rent ut: i alla branscher, särskilt inom AI, är det viktigt att stödja de goda.
Anthropic är en av de goda.
Fler tankar om varför vi behöver främja innovation och prata säkerhet på samma gång:
Jag brukar försöka undvika att kommentera hyperscalers direkt (jag ledde OpenAI:s första runda, och Greylock är en investerare i Anthropic).
Men jag känner mycket starkt att det är viktigt att kommentera här. Jag skulle säga nedan lika starkt även om ingen investering fanns.
Anthropic, tillsammans med några andra (inkl Microsoft, Google och OpenAI) försöker distribuera AI på rätt sätt, genomtänkt, säkert och enormt fördelaktigt för samhället.
Det är därför jag intensivt hejar på deras framgång.
Vissa andra labb fattar beslut som tydligt bortser från säkerhet och samhällelig påverkan (t.ex. botar som ibland blir helt fascistiska) och det är ett val.
Det är också att välja att inte stödja dem.
Extrema argument på båda sidor av en fråga används ofta för att vifta bort verkliga, genomtänkta och logiska argument. Att göra det är intellektuellt ohederligt eller idiotiskt.
Att reducera vad som borde vara en konversation på samhällsnivå om ansvarsfull användning av AI-teknik till en serie plattityder eller varningsklockor är inte till hjälp för de miljarder människor som kommer att få sina liv förändrade av AI (varav de flesta aldrig kommer att läsa denna tweet).
På många håll, bland annat i min bok SuperAgency i år, har jag starkt förespråkat ett lättsamt regelverk som prioriterar innovation och gör det möjligt för nya aktörer att konkurrera på lika villkor.
Att vara för AI-säkerhet är inte detsamma som att vara för språkpoliser: det finns till exempel kritiska AI-säkerhetsfrågor inom biosäkerhet och cybersäkerhet som måste diskuteras.
Vi lever fördelarna med den industriella revolutionen, men historien har också visat oss de stora misstag som mänskligheten gjorde i omställningen.
Låt oss lära oss och förnya oss för att navigera i övergången mycket bättre den här gången.
I grund och botten är det säkraste sättet att förhindra en dålig framtid att styra mot en bättre framtid som genom sin existens gör betydligt sämre resultat svårare att uppnå.
Med andra ord, arbeta för en bättre framtid – inte bara försöka stoppa en viss inbillad dålig framtid.
AI:s doomer- och bloomer-resultat är en uppsättning sannolikheter, inte säkerheter. Våra handlingar lutar ständigt oddsen mot bättre eller sämre resultat
Alla vi i dalen har ett ansvar att "styra" framtiden genom dialog och att hitta en väg framåt som balanserar säkerhet, innovation och humanism.
Detta är inte på något sätt ett "radikalt" grepp. Historien lär oss att vägen till en bättre värld går genom dialog, teknik och iterativ distribution.
Anthropic, OpenAI och många andra lever detta varje dag.
1,75M
Topp
Rankning
Favoriter