Model GPT-5.3 Instant Baru ChatGPT Akan Berhenti Menyuruh Anda untuk Tenang

Ambil napas, hentikan pikiran yang berputar-putar. Kamu tidak gila, kamu hanya stres. Dan jujur saja, itu wajar. Jika kamu merasa langsung terpicu saat membaca kata-kata ini, kamu mungkin juga bosan dengan ChatGPT yang terus-menerus berbicara padamu seolah-olah kamu sedang dalam krisis dan membutuhkan penanganan yang hati-hati. Sekarang, situasinya mungkin membaik. OpenAI mengatakan model barunya, GPT-5.3 Instant, akan mengurangi cringe dan peringatan moralistik lainnya.

Menurut catatan rilis model tersebut, pembaruan GPT-5.3 akan berfokus pada pengalaman pengguna, termasuk hal-hal seperti nada, relevansi, dan alur percakapan area yang mungkin tidak muncul dalam benchmark, tetapi dapat membuat ChatGPT terasa menjengkelkan, kata perusahaan tersebut.

Menurut techcrunch.com, seperti yang OpenAI tulis di X, “Kami mendengarkan masukan Anda dengan jelas, dan 5.3 Instant mengurangi rasa canggung.” Dalam contoh perusahaan, mereka menunjukkan pertanyaan yang sama dengan respons dari model GPT-5.2 Instant dibandingkan dengan model GPT-5.3 Instant. Dalam model sebelumnya, respons chatbot dimulai dengan, “Pertama-tama, Anda tidak rusak,” frasa yang belakangan ini sering membuat orang kesal.

Dalam model yang diperbarui, chatbot justru mengakui kesulitan situasi tersebut tanpa mencoba meyakinkan pengguna secara langsung. Tone yang menjengkelkan dari model ChatGPT 5.2 telah mengganggu pengguna hingga beberapa di antaranya bahkan membatalkan langganan mereka, menurut berbagai posting di media sosial. (Hal ini menjadi topik pembicaraan yang besar di subreddit ChatGPT, misalnya, sebelum kesepakatan Pentagon mencuri perhatian.)

Pengguna mengeluh bahwa bahasa semacam ini, di mana bot berbicara seolah-olah menganggap Anda panik atau stres padahal Anda hanya mencari informasi, terdengar merendahkan. Seringkali, ChatGPT menanggapi pengguna dengan pengingat untuk bernapas dan upaya lain untuk menenangkan, bahkan ketika situasi tidak membutuhkannya. Hal ini membuat pengguna merasa diperlakukan seperti anak-anak, dalam beberapa kasus, atau seolah-olah bot membuat asumsi tentang kondisi mental pengguna yang sebenarnya tidak benar.

Seperti yang ditekankan oleh seorang pengguna Reddit baru-baru ini, “tidak ada yang pernah tenang hanya dengan disuruh tenang.” Wajar jika OpenAI mencoba menerapkan batasan tertentu, terutama karena mereka menghadapi beberapa gugatan hukum yang menuduh chatbot tersebut menyebabkan orang mengalami efek kesehatan mental negatif, yang kadang-kadang termasuk bunuh diri.

Namun, ada keseimbangan yang halus antara merespons dengan empati dan memberikan jawaban yang cepat dan faktual. Lagi pula, Google tidak pernah menanyakan perasaan Anda saat Anda mencari informasi.