
EDA WEB – Seorang wanita asal Yunani memutuskan menggugat cerai suaminya setelah membaca “ramalan” dari yang menyebut bahwa suaminya diam-diam berselingkuh dengan wanita lain.
Ya, ramalan ini datang bukan dari seseorang yang berprofesi sebagai “peramal” atau menggeluti bidang tersebut, melainkan hasil jawaban chatbot AI ChatGPT.
Platform berbasis kecerdasan buatan milik itu bahkan “meramal” hanya dari foto yang menunjukkan pola ampas kopi di dasar cangkir yang dikirimkan oleh pasangan tersebut.
Menurut laporan Greek City Times, pasangan suami istri tersebut memang meminta ChatGPT untuk mempraktikkan tasseografi dari foto yang mereka kirimkan.
Adapun tasseografi merupakan seni kuno yang diyakini bisa meramal nasib atau masa depan seseorang berdasarkan pola dari ampas kopi atau daun teh yang tertinggal di dasar cangkir mereka.
Baca juga:
Memang tampak seperti lelucon, meminta “AI” untuk meramal nasib seseorang hanya lewat foto ampas kopi. Sang suami bahkan menganggap apa yang mereka lakukan ini hanya sebuah “keisengan” belaka.
Namun, reaksi ini justru berbanding terbalik dengan sang istri. Ia malah menanggapi hasil ramalan tersebut dengan sangat serius.
Wanita ini juga disebut percaya dengan jawaban yang diberikan oleh ChatGPT dan menganggap bahwa isi ramalan tersebut benar-benar menggambarkan kondisi nyata rumah tangga mereka.
Adapun dalam sesi “pembacaan” itu, ChatGPT mengaku melihat tanda-tanda bahwa sang suami secara diam-diam memiliki “fantasi” untuk bisa menjalin hubungan dengan perempuan lain.
Menurut laporan tersebut, jawaban dari bahkan memberikan prediksi lain yang cukup spesifik, yakni inisial perempuan yang diduga menjadi selingkuhan suaminya.
Melalui pola ampas kopi di cangkir mereka, ChatGPT menyebut bahwa inisial nama perempuan tersebut diawali dengan huruf “E” dan memang sudah ditakdirkan untuk berselingkuh dengan sang suami.
ChatGPT turut membaca pola ampas yang ada di cangkir si wanita dan memberikan respon lanjutan yang seakan-akan memperkuat hasil ramalan yang dia buat.
Baca juga:
Chatbot ini menyebut bahwa hubungan terlarang antara sang suami dengan perempuan berinisial “E” itu sudah benar-benar terjadi.
Alih-alih memastikan kebenaran “ramalan” tersebut kepada sang suami, wanita ini justru langsung mempercayai jawaban dari ChatGPT.
Ia bahkan seakan meyakini apa yang AI itu katakan adalah sepenuhnya benar.
Tidak butuh waktu lama setelah membaca ramalan tersebut, wanita ini pun langsung mengambil keputusan drastis.
Ia bahkan meminta suaminya untuk segera pergi meninggalkan rumah dan mengumumkan keputusan perceraian ini kepada anak-anaknya.
Selang tiga hari kemudian, sang suami mengaku mendapatkan surat berisi gugatan cerai dari sang istri yang dikirimkan oleh pihak pengadilan.
Sulit dibuktikan di pengadilan
Dikutip EDA WEBTekno dari laman Tech Radar, Minggu (18/5/2025), jika dilihat secara hukum, kasus ini disebut sulit untuk dijadikan preseden atau acuan saat dipersidangkan di pengadilan.
Pasalnya, belum ada aturan resmi yang menetapkan bahwa “hasil ramalan” dari chatbot AI bisa dijadikan sebagai bukti sah di meja hijau nantinya.
Selain itu, teknik tasseografi yang meramal dari susunan pola, simbol, dan pusaran dari ampas kopi di dalam cangkir juga tidak bisa disamakan dengan model pelatihan yang diberikan ke platform chatbot AI.
Terlebih, tasseografi sendiri merupakan seni yang memang sudah ada dan telah dipraktikkan sejak ribuan tahun silam di berbagai wilayah termasuk Turki, Cina, dan sekitarnya.
Disebutkan Tech Radar, ChatGPT sendiri bahkan tidak pernah dilatih untuk membaca ampas kopi atau meramal nasib seperti yang dilakukan di seni tasseografi.
Chatbot ini hanya bisa menebak dan menganalisis pola atau simbol yang dilihatnya dari gambar lalu mengaitkan dengan sumber-sumber lain dan disampaikan dalam narasi yang meyakinkan.
Dengan kata lain, ChatGPT disebut “pandai” dalam mengarang cerita atau “halu” karena sering memberikan jawaban tidak berdasar namun seolah-olah apa yang disampaikan AI tersebut adalah benar dan sesuai dengan fakta.
Adapun klaim “halu” ini memang benar terjadi.
OpenAI sendiri sudah melakukan riset dan mengungkap bahwa model-model kecerdasan buatannya, seperti o3 dan o4-mini memiliki potensi untuk menghasilkan informasi palsu tang tidak akurat alias halusinasi.
Rangkuman riset ini dapat dibaca di link berikut :
Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita EDA WEB WhatsApp Channel : . Pastikan kamu sudah install aplikasi WhatsApp ya.
Sumber : Kompas