<Gegevens zijn concurrentievermogen, geen modellen> De kern van de AI-industrie is niet langer computing of modellen, maar 'hoogwaardige data'. Net zoals de menselijke beschaving in het verleden door olie naar een hoger niveau werd getild, heeft AI ook een nieuwe 'brandstof' nodig om verder te gaan. Net als voor en na de Tweede Wereldoorlog, toen olie werd gebruikt als energiebron en materiaal, ging de industrialisatie snel. Wie en hoe ze gegevens verkrijgen en verwerken, zal nu het initiatief in het AI-tijdperk bepalen. Elon Musk zei dit jaar ook. "We hebben alle cumulatieve som van menselijke kennis in het leren van kunstmatige intelligentie uitgeput." Het is waar dat modellen zoals GPT snel zijn gegroeid en openbare gegevens zoals websites, boeken, code en afbeeldingen hebben geschraapt. Maar nu hebben we een nieuwe vorm van gegevens nodig die auteursrechtelijk beschermd is of helemaal niet bestaat. Op gebieden als autonome voertuigen en robotica is het bijvoorbeeld noodzakelijk om verder te gaan dan eenvoudige tekst en hebben we complexe gegevens op basis van meerdere sensoren nodig die camera's, radar, lidar, enz. combineren, evenals casusgegevens die in de echte omgeving zijn verzameld, die niet op internet bestaan. Het grotere probleem gaat niet zozeer over technologie als wel 'hoe je het goed combineert'. Duizenden mensen over de hele wereld moeten gegevens verzamelen, labelen en bijwerken, en het is moeilijk om met deze diversiteit en schaal om te gaan met een gecentraliseerde benadering van het verleden. Daarom is de AI-industrie het er steeds meer over eens dat de gedecentraliseerde methode het antwoord is. Hier verschijnt 'Poseidon (@psdnai)'. Poseidon is niet alleen een datawarehouse, maar een infrastructuur die echte gegevens voedt, verifieert en verfijnt tot een trainingsdataset die kan worden gebruikt zonder dat u zich zorgen hoeft te maken over auteursrechten. Om een analogie te gebruiken: Poseidon is een 'olieraffinaderij'. Het neemt onbewerkte gegevens en verfijnt deze tot brandstof die AI kan gebruiken om te leren. Het hele proces gaat heen en weer op de @StoryProtocol. Het registreert op transparante wijze wie de gegevens heeft verstrekt en wie deze onder welke voorwaarden on-chain heeft geschreven. Degenen die gegevens verstrekken, worden eerlijk beloond en AI-ontwikkelaars kunnen deze met vertrouwen gebruiken. Ik denk dat Poseidon, dat zal innoveren op de datalaag, niet op GPU's of modellen, misschien wel het beste voorbeeld is van het toepassen van Web3-technologie op de Web2-industrie.
Chris Dixon
Chris Dixon23 jul 2025
Verheugd om aan te kondigen dat we een seed-ronde van $ 15 miljoen leiden in Poseidon, dat is geïncubeerd door @StoryProtocol en een gedecentraliseerde datalaag bouwt om vraag en aanbod van AI-trainingsgegevens te coördineren. De eerste generatie AI-basismodellen werd getraind op gegevens die in feite een onbeperkte bron leken te zijn. Tegenwoordig zijn de meest toegankelijke bronnen, zoals boeken en websites, grotendeels uitgeput en zijn gegevens een beperkende factor geworden in de vooruitgang van AI. Veel van de gegevens die nu overblijven, zijn van mindere kwaliteit of verboden terrein vanwege IP-beveiliging. Voor sommige van de meest veelbelovende AI-toepassingen - in robotica, autonome voertuigen en ruimtelijke intelligentie - bestaan de gegevens nog niet eens. Nu hebben deze systemen geheel nieuwe soorten informatie nodig: multisensorisch, rijk aan randgevallen, in het wild vastgelegd. Waar komen al deze gegevens uit de fysieke wereld vandaan? De uitdaging is niet alleen technisch - het is een probleem van coördinatie. Duizenden bijdragers moeten op een gedistribueerde manier samenwerken om de fysieke gegevens te verzamelen, te labelen en te onderhouden die de volgende generatie AI nodig heeft. Wij zijn van mening dat geen enkele gecentraliseerde aanpak de gegevenscreatie en -beheer die nodig is op het vereiste niveau van schaal en diversiteit efficiënt kan orkestreren. Een decentrale aanpak kan dit oplossen. @psdnai stelt leveranciers in staat om de gegevens te verzamelen die AI-bedrijven nodig hebben, terwijl de IP-veiligheid wordt gewaarborgd via de programmeerbare IP-licentie van Story. Dit is bedoeld om een nieuwe economische basis voor het internet te leggen, waar datamakers een eerlijke vergoeding krijgen voor het helpen van AI-bedrijven bij het aandrijven van de volgende generatie intelligente systemen. Het team van Poseidon, onder leiding van Chief Scientist en medeoprichter @SPChinchali, brengt diepgaande expertise in AI-infrastructuur. Sandeep is een professor aan de UT Austin, gespecialiseerd in AI, robotica en gedistribueerde systemen, met een doctoraat van Stanford in AI en gedistribueerde systemen. Head of Product en medeoprichter @sarickshah werkte tien jaar als machine learning-ingenieur en schaalde AI-producten op voor grote ondernemingen in de financiële dienstverlening, telecom en gezondheidszorg. We zijn verheugd om Poseidon te ondersteunen bij zijn werk om een van de meest kritieke knelpunten in AI-ontwikkeling op te lossen.
3,03K