Intelijen buatan ChatGPT telah menimbulkan sensasi di seluruh dunia selama berminggu-minggu. Chatbot siap untuk menjawab pertanyaan dan tugas berbasis teks dan biasanya melakukannya dengan sangat baik sehingga siswa menggunakannya untuk mengerjakan pekerjaan rumah mereka. Microsoft mengungkapkan dirinya sejak awal sebagai salah satu pengikut terbesar ChatGPT, telah menginvestasikan miliaran dalam perusahaan di belakangnya, OpenAI, dan sekarang membuat kontribusi besar untuk mengintegrasikan teknologi lebih dalam ke dalam kehidupan sosial sehari-hari. Pada 7 Februari 2023, grup teknologi AS mengumumkan bahwa dia telah menyilangkan mesin pencari Bing-nya dengan ChatGPT. peristiwa sudah dapat mengagumi konsekuensi dalam bentuk model demo. Konsep di baliknya: Alih-alih menerima banyak ide situs web untuk pertanyaan pencarian, ChatGPT menggabungkan informasi yang tersedia di internet dan merumuskan jawaban individu yang ringkas dan spesifik dalam bentuk dialog. Sesuai dengan mottonya : Konsumen bertanya, solusi ChatGPT. Kedengarannya terlalu bagus untuk menjadi kenyataan – dan kemungkinan besar masih benar.

Microsoft memperingatkan solusi yang salah

Tidak ada cara lain untuk menjelaskan mengapa Microsoft memperingatkan di banyak tempat di halaman untuk pencarian Bing baru sebagai lawan dari mengambil solusi AI yang tidak dicentang begitu saja. Sebagai situs web The Verge meninjau, perusahaan secara tegas menunjukkan dalam katalog tanya jawab bahwa ini adalah versi pratinjau awal dan bahwa hasil yang keluar tidak harus benar. Itu terutama bergantung pada data apa yang ditawarkan di Web tentang masalah masing-masing. Menurut Microsoft, selalu terjadi bahwa Bing salah mengartikan informasi dan masih mengemasnya menjadi solusi yang terdengar meyakinkan. Kedengarannya sangat mirip dengan Pretend Information 2.0.

Oleh karena itu, Microsoft menarik akal sehat dan meminta pengguna untuk menggunakan penilaian mereka sendiri dan memeriksa ulang informasi sebelum melakukan panggilan. Sedikit saran cerdas yang harus selalu diterapkan saat menggunakan web – bahkan tanpa AI yang rawan kesalahan. Microsoft mengulangi pemberitahuan ini di tempat lain, sehingga tampaknya sangat menyadari kemungkinan penyebaran informasi yang salah. Sebenarnya, perusahaan telah menyelesaikan touchdown perut yang baik dengan eksperimen serupa.

Peringatan kemungkinan besar berlaku

Obrolan Microsoft Tay diluncurkan pada tahun 2016 dan, di bawah pengaruh media sosial, berkembang menjadi misoginis rasis dalam sehari. Kekecewaan yang luar biasa! Karenanya, seseorang sekarang berhati-hati dengan ChatGPT – dan memang demikian. Menurut The Verge, ketika ditanya apa yang diungkapkan Microsoft pada 7 Februari 2023, pencarian Bing menjelaskan bahwa perusahaan tersebut, di antara masalah lain, menunjukkan kemampuannya untuk memparodikan selebritas – hit langsung terlihat sangat berbeda.

situs Web pasokan

By Tobi