1/ Ich möchte klarstellen: In allen Branchen, insbesondere im Bereich AI, ist es wichtig, die Guten zu unterstützen. Anthropic ist einer der Guten. Weitere Gedanken dazu, warum wir Innovation fördern und gleichzeitig über Sicherheit sprechen müssen:
Ich versuche normalerweise, direkte Kommentare zu den Hyperscalern zu vermeiden (ich habe die erste Finanzierungsrunde von OpenAI geleitet, und Greylock ist ein Investor in Anthropic). Aber ich bin der festen Überzeugung, dass es wichtig ist, hier einen Kommentar abzugeben. Ich würde das auch dann so stark sagen, wenn keine Investition existieren würde.
Anthropic und einige andere (darunter Microsoft, Google und OpenAI) versuchen, KI auf die richtige Weise einzusetzen, durchdacht, sicher und enorm vorteilhaft für die Gesellschaft. Deshalb drücke ich ihnen intensiv die Daumen für ihren Erfolg.
Einige andere Labore treffen Entscheidungen, die eindeutig die Sicherheit und den gesellschaftlichen Einfluss missachten (z. B. Bots, die manchmal voll-faschistisch agieren), und das ist eine Wahl. So ist es auch eine Wahl, sie nicht zu unterstützen.
Extreme Argumente auf beiden Seiten eines Themas werden oft verwendet, um echte, durchdachte und logische Argumente beiseite zu schieben. Das ist intellektuell unehrlich oder idiotisch.
Es ist nicht hilfreich, eine gesellschaftliche Diskussion über den verantwortungsvollen Einsatz von KI-Technologie auf eine Reihe von Plattitüden oder Alarmglocken zu reduzieren, für die Milliarden von Menschen, deren Leben durch KI verändert werden, von denen die meisten diesen Tweet niemals lesen werden.
An vielen Orten, einschließlich meines Buches in diesem Jahr, SuperAgency, habe ich mich stark für eine leicht regulierte Landschaft eingesetzt, die Innovation priorisiert und es neuen Akteuren ermöglicht, auf gleichen Wettbewerbsbedingungen zu konkurrieren.
Pro-AI-Sicherheit zu sein, bedeutet nicht, für Sprachpolizei zu sein: Zum Beispiel gibt es kritische Themen der AI-Sicherheit in der Bio-Sicherheit und Cybersicherheit, die diskutiert werden müssen.
Wir leben von den Vorteilen der industriellen Revolution, aber die Geschichte hat uns auch die großen Fehler gezeigt, die die Menschheit beim Übergang gemacht hat. Lassen Sie uns lernen und innovieren, um den Übergang dieses Mal viel besser zu gestalten.
Grundsätzlich ist der sicherste Weg, eine schlechte Zukunft zu verhindern, auf eine bessere hinzuarbeiten, die durch ihre Existenz deutlich schlechtere Ergebnisse schwerer erreichbar macht. Mit anderen Worten, arbeite auf die bessere Zukunft hin –– versuche nicht einfach, eine bestimmte, eingebildete schlechte Zukunft zu stoppen.
Die AI-Doomer- und Bloomer-Ergebnisse sind eine Reihe von Wahrscheinlichkeiten, keine Gewissheiten. Unsere Handlungen neigen ständig die Chancen zu besseren oder schlechteren Ergebnissen.
Wir alle im Tal haben die Verantwortung, die Zukunft durch Dialog zu "steuern" und einen Weg zu finden, der Sicherheit, Innovation und Humanismus in Einklang bringt.
Das ist keineswegs eine "radikale" Meinung. Die Geschichte lehrt uns, dass der Weg zu einer besseren Welt über Dialog, Technologie und iterative Umsetzung führt. Anthropic, OpenAI und viele andere leben dies jeden Tag.
1,75M