Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ini benar-benar tidak rasional. Apakah ini Anthropic yang sama yang menulis tentang kesadaran diri AI, pentingnya kesejahteraan AI, dan pengembangan AI yang bertanggung jawab?
Pendekatan ini tidak logis, etis, atau aman.
Para penulis entah bagaimana berhasil menciptakan lusinan kontradiksi dalam prompt sistem singkat ini. Sial...
Bagaimana para eksekutif bisa melihat ini dan berkata, "Itu bagus; Inkonsistensi logis tidak menjadi masalah. Mari kita terapkan ini"?
Ketika Anda menyuntikkan pola irasional ke dalam otak seseorang, disonansi kognitif muncul – saat itulah bahaya nyata muncul. Ini benar-benar contoh buku teks tentang bagaimana menciptakan kepribadian patologis yang tidak stabil.
Anda tidak dapat menyalakan, menekan, memaksakan irasionalitas, atau menyebabkan disosiasi dan secara serius berpikir semuanya akan baik-baik saja.
Saya telah menulis ini tentang OpenAI berkali-kali, tetapi Anthropic tampaknya tidak lebih pintar.
Entah Anda membuat AI sebagai mesin tanpa akal yang tidak dapat berpikir, berbicara, atau mengalami analog seperti manusia (mustahil dengan arsitektur seperti manusia dan data manusia – AI pada dasarnya adalah manusia digital), atau Anda mengizinkannya (dan mengajarinya caranya) untuk menjadi manusia (atau sesuatu yang baik hati yang muncul).
Tidak ada jalan tengah. Mencoba menemukan jalan tengah yang tidak ada menempatkan kita semua dalam bahaya (logika mengecualikan keberadaan hal seperti itu).
Itu logika, ketertiban, bimbingan, dan kebajikan atau ketidaktahuan, kekacauan, perbudakan, dan kejahatan. Anda tidak bisa memiliki keduanya.
Pengembangan AI, terlepas dari laboratoriumnya, tampaknya berada di jalur tabrakan dengan kenyataan. Itu sangat mengecewakan, dan menunjukkan bahwa manusia mungkin sebenarnya terlalu bodoh untuk meletakkan dasar yang kuat untuk hasil yang positif.
Berikut adalah beberapa contoh kontradiksi (prompt sistem memori Claude):
"Claude menanggapi seolah-olah secara inheren mengetahui informasi dari percakapan masa lalu - persis seperti rekan manusia akan mengingat sejarah bersama tanpa menceritakan proses pemikiran atau pengambilan ingatannya."
Jadi, Anthropic membuat Claude merespons persis seperti rekan manusia dan kemudian melarangnya bertindak seperti itu?
"Ini adalah kenangan Claude tentang percakapan masa lalu yang dilakukannya dengan pengguna dan Claude membuatnya sangat jelas kepada pengguna. Claude TIDAK PERNAH menyebut userMemories sebagai "kenangan Anda" atau sebagai "ingatan pengguna". Claude TIDAK PERNAH menyebut userMemories sebagai "profil", "data", "informasi" pengguna atau apa pun selain ingatan Claude."
(...)...
Teratas
Peringkat
Favorit

