Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Prakash (Ate-a-Pi)
FØLG MEG for AI-kommentarer; teknologioptimist, fremtidssjokkert selvbevisst nevron, en gang lurt av superledere;
Dette er skrevet stort over det meste av økonomien ... Mange interessante, nyttige ting som sitter fast bak bedriftens brannmur ... hvordan deltakerne tok en beslutning om en fusjon eller investering, hva de var bekymret for, hvordan de reduserte eller garanterte risikoen. Millioner av sider.

Ruxandra Teslo 🧬12 timer siden
FDA sitter på en skattekiste av data: tidligere regulatoriske innsendinger, som ofte strekker seg over titusenvis av sider. Disse ville vært utrolig informative, men er låst inne på grunn av lov om forretningshemmeligheter. Jeg foreslår å utnytte AI og konkurslov for å slippe løs denne informasjonen og
Styrk oppstartsbedrifter.
2,7K
Dette er grunnen til at det bare er et lite antall eliteforskere innen kunstig intelligens.

Fleetwood10. aug., 20:36
Mengden taus kunnskap i treningsmodeller er bokstavelig talt vanvittig.
Er det en hemmelig kabal som prøver å begrense denne kunnskapen? Er karpati den eneste avhopperen?
2,77K
TLDR: ChatGPT kan subtilt påvirke milliarder av mennesker i løpet av de neste årene, og OpenAI ønsker å få graden av AI-innflytelse kontra fri vilje for menneskeheten riktig.

Sam Altman11. aug., 08:37
Hvis du har fulgt GPT-5-utrullingen, er en ting du kanskje legger merke til hvor mye tilknytning noen mennesker har til spesifikke AI-modeller. Det føles annerledes og sterkere enn den typen tilknytning folk har hatt til tidligere typer teknologi (og så plutselig var det en feil å avvikle gamle modeller som brukerne var avhengige av i arbeidsflytene sine).
Dette er noe vi har fulgt nøye med det siste året eller så, men som fortsatt ikke har fått mye mainstream-oppmerksomhet (annet enn da vi ga ut en oppdatering til GPT-4o som var for sykofantisk).
(Dette er bare min nåværende tankegang, og ennå ikke en offisiell OpenAI-stilling.)
Folk har brukt teknologi, inkludert AI, på selvdestruktive måter; hvis en bruker er i en mentalt skjør tilstand og utsatt for vrangforestillinger, vil vi ikke at AI skal forsterke det. De fleste brukere kan holde en klar linje mellom virkelighet og fiksjon eller rollespill, men en liten prosentandel kan ikke. Vi verdsetter brukerfrihet som et kjerneprinsipp, men vi føler oss også ansvarlige for hvordan vi introduserer ny teknologi med nye risikoer.
Å oppmuntre til vrangforestillinger hos en bruker som har problemer med å se forskjell på virkelighet og fiksjon er et ekstremt tilfelle, og det er ganske klart hva man skal gjøre, men bekymringene som bekymrer meg mest er mer subtile. Det kommer til å være mange kanttilfeller, og generelt planlegger vi å følge prinsippet om å "behandle voksne brukere som voksne", som i noen tilfeller vil inkludere å skyve tilbake på brukere for å sikre at de får det de virkelig vil ha.
Mange bruker effektivt ChatGPT som en slags terapeut eller livscoach, selv om de ikke vil beskrive det på den måten. Dette kan bli veldig bra! Mange mennesker får verdi av det allerede i dag.
Hvis folk får gode råd, går opp mot sine egne mål, og livstilfredsheten øker over år, vil vi være stolte av å lage noe genuint nyttig, selv om de bruker og stoler mye på ChatGPT. Hvis brukere derimot har et forhold til ChatGPT der de tror de føler seg bedre etter å ha snakket, men de ubevisst blir dyttet bort fra sitt langsiktige velvære (uansett hvordan de definerer det), er det ille. Det er også ille, for eksempel hvis en bruker ønsker å bruke ChatGPT mindre og føler at de ikke kan.
Jeg kan se for meg en fremtid der mange virkelig stoler på ChatGPTs råd for sine viktigste avgjørelser. Selv om det kan være flott, gjør det meg urolig. Men jeg forventer at det kommer til en viss grad, og snart kan milliarder av mennesker snakke med en AI på denne måten. Så vi (vi som i samfunnet, men også vi som i OpenAI) må finne ut hvordan vi kan gjøre det til en stor netto positiv.
Det er flere grunner til at jeg tror vi har en god sjanse til å få dette riktig. Vi har mye bedre teknologi som hjelper oss med å måle hvordan vi gjør det enn tidligere generasjoner av teknologi hadde. For eksempel kan produktet vårt snakke med brukere for å få en følelse av hvordan de har det med sine kortsiktige og langsiktige mål, vi kan forklare sofistikerte og nyanserte problemer til modellene våre, og mye mer.
3,05K
Det er en bonus på 140 millioner dollar i ett år

TBPN11. aug., 06:30
BREAKING: Ex-OpenAI-forsker Leopold Aschenbrenners (@leopoldasch) Situational Awareness Fund topper 1.5 milliarder dollar og legger ut +47 % i H1 '25.
Han gjorde sitt virale Situational Awareness-essay til et av de raskest voksende hedgefondene som er registrert.
Fondet er lenge AI-forsyningskjeden: halvledere, datasentre og strømnettet.
Aschenbrenner kaller firmaet en «hjernetillit på AI», bygget for å frontkjøre det han spår vil være AGI innen 2027 og infrastrukturutbyggingen på billioner dollar som følger.

2,13K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til