Google menarik model Gemma-nya setelah laporan tentang halusinasi pada pertanyaan faktual, dengan perusahaan menekankan bahwa model tersebut ditujukan untuk tujuan pengembangan dan penelitian.
Perusahaan teknologi Google mengumumkan penarikan model AI Gemma setelah laporan mengenai tanggapan yang tidak akurat terhadap pertanyaan faktual, menjelaskan bahwa model tersebut dirancang semata-mata untuk penggunaan penelitian dan pengembang.
Menurut pernyataan perusahaan, Gemma tidak lagi dapat diakses melalui AI Studio, meskipun tetap tersedia untuk pengembang melalui API. Keputusan ini dipicu oleh kasus-kasus non-pengembang yang menggunakan Gemma melalui AI Studio untuk meminta informasi faktual, yang bukan merupakan fungsi yang dimaksudkan.
Google menjelaskan bahwa Gemma tidak pernah dimaksudkan untuk berfungsi sebagai alat yang ditujukan untuk konsumen, dan penghapusannya dilakukan untuk mencegah pemahaman yang lebih lanjut mengenai tujuannya.
Dalam klarifikasinya, Google menekankan bahwa keluarga model Gemma dikembangkan sebagai alat sumber terbuka untuk mendukung komunitas pengembang dan penelitian, bukan untuk bantuan faktual atau interaksi konsumen. Perusahaan mencatat bahwa model terbuka seperti Gemma dimaksudkan untuk mendorong eksperimen dan inovasi, memungkinkan pengguna untuk mengeksplorasi kinerja model, mengidentifikasi masalah, dan memberikan umpan balik yang berharga.
Google menyoroti bahwa Gemma telah berkontribusi pada kemajuan ilmiah, dengan mengutip contoh model Gemma C2S-Scale 27B, yang baru-baru ini berperan dalam mengidentifikasi pendekatan baru untuk pengembangan terapi kanker.
Perusahaan mengakui tantangan yang lebih luas yang dihadapi industri AI, seperti halusinasi—ketika model menghasilkan informasi yang salah atau menyesatkan—dan sanjungan—ketika mereka menghasilkan respons yang setuju tetapi tidak akurat.
Masalah ini terutama umum terjadi pada model terbuka yang lebih kecil seperti Gemma. Google menegaskan kembali komitmennya untuk mengurangi halusinasi dan terus meningkatkan keandalan serta kinerja sistem AI-nya.
Google Menerapkan Strategi Berlapis untuk Mengurangi Halusinasi AI
Perusahaan menggunakan pendekatan berlapis untuk meminimalkan halusinasi dalam model bahasa besar (LLMs), menggabungkan dasar data, pelatihan yang ketat dan desain model, pengaturan yang terstruktur dan aturan kontekstual, serta pengawasan manusia dan mekanisme umpan balik yang berkelanjutan. Meskipun langkah-langkah ini, perusahaan mengakui bahwa halusinasi tidak dapat sepenuhnya dihilangkan.
Keterbatasan mendasar berasal dari cara kerja LLM. Alih-alih memiliki pemahaman tentang kebenaran, model berfungsi dengan memprediksi urutan kata yang mungkin berdasarkan pola yang diidentifikasi selama pelatihan. Ketika model tidak memiliki dasar yang cukup atau menghadapi data eksternal yang tidak lengkap atau tidak dapat diandalkan, model dapat menghasilkan respons yang terdengar kredibel tetapi faktanya salah.
Selain itu, Google mencatat bahwa ada trade-off yang melekat dalam mengoptimalkan kinerja model. Meningkatkan kehati-hatian dan membatasi output dapat membantu membatasi halusinasi, tetapi sering kali mengorbankan fleksibilitas, efisiensi, dan kegunaan di beberapa tugas tertentu. Akibatnya, ketidakakuratan sesekali masih ada, terutama di area yang muncul, khusus, atau kurang terwakili di mana cakupan data terbatas.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Google Menarik Gemma AI Dari AI Studio, Menegaskan Tujuan Hanya Untuk Pengembang Di Tengah Kekhawatiran Akurasi
Secara Singkat
Google menarik model Gemma-nya setelah laporan tentang halusinasi pada pertanyaan faktual, dengan perusahaan menekankan bahwa model tersebut ditujukan untuk tujuan pengembangan dan penelitian.
Perusahaan teknologi Google mengumumkan penarikan model AI Gemma setelah laporan mengenai tanggapan yang tidak akurat terhadap pertanyaan faktual, menjelaskan bahwa model tersebut dirancang semata-mata untuk penggunaan penelitian dan pengembang.
Menurut pernyataan perusahaan, Gemma tidak lagi dapat diakses melalui AI Studio, meskipun tetap tersedia untuk pengembang melalui API. Keputusan ini dipicu oleh kasus-kasus non-pengembang yang menggunakan Gemma melalui AI Studio untuk meminta informasi faktual, yang bukan merupakan fungsi yang dimaksudkan.
Google menjelaskan bahwa Gemma tidak pernah dimaksudkan untuk berfungsi sebagai alat yang ditujukan untuk konsumen, dan penghapusannya dilakukan untuk mencegah pemahaman yang lebih lanjut mengenai tujuannya.
Dalam klarifikasinya, Google menekankan bahwa keluarga model Gemma dikembangkan sebagai alat sumber terbuka untuk mendukung komunitas pengembang dan penelitian, bukan untuk bantuan faktual atau interaksi konsumen. Perusahaan mencatat bahwa model terbuka seperti Gemma dimaksudkan untuk mendorong eksperimen dan inovasi, memungkinkan pengguna untuk mengeksplorasi kinerja model, mengidentifikasi masalah, dan memberikan umpan balik yang berharga.
Google menyoroti bahwa Gemma telah berkontribusi pada kemajuan ilmiah, dengan mengutip contoh model Gemma C2S-Scale 27B, yang baru-baru ini berperan dalam mengidentifikasi pendekatan baru untuk pengembangan terapi kanker.
Perusahaan mengakui tantangan yang lebih luas yang dihadapi industri AI, seperti halusinasi—ketika model menghasilkan informasi yang salah atau menyesatkan—dan sanjungan—ketika mereka menghasilkan respons yang setuju tetapi tidak akurat.
Masalah ini terutama umum terjadi pada model terbuka yang lebih kecil seperti Gemma. Google menegaskan kembali komitmennya untuk mengurangi halusinasi dan terus meningkatkan keandalan serta kinerja sistem AI-nya.
Google Menerapkan Strategi Berlapis untuk Mengurangi Halusinasi AI
Perusahaan menggunakan pendekatan berlapis untuk meminimalkan halusinasi dalam model bahasa besar (LLMs), menggabungkan dasar data, pelatihan yang ketat dan desain model, pengaturan yang terstruktur dan aturan kontekstual, serta pengawasan manusia dan mekanisme umpan balik yang berkelanjutan. Meskipun langkah-langkah ini, perusahaan mengakui bahwa halusinasi tidak dapat sepenuhnya dihilangkan.
Keterbatasan mendasar berasal dari cara kerja LLM. Alih-alih memiliki pemahaman tentang kebenaran, model berfungsi dengan memprediksi urutan kata yang mungkin berdasarkan pola yang diidentifikasi selama pelatihan. Ketika model tidak memiliki dasar yang cukup atau menghadapi data eksternal yang tidak lengkap atau tidak dapat diandalkan, model dapat menghasilkan respons yang terdengar kredibel tetapi faktanya salah.
Selain itu, Google mencatat bahwa ada trade-off yang melekat dalam mengoptimalkan kinerja model. Meningkatkan kehati-hatian dan membatasi output dapat membantu membatasi halusinasi, tetapi sering kali mengorbankan fleksibilitas, efisiensi, dan kegunaan di beberapa tugas tertentu. Akibatnya, ketidakakuratan sesekali masih ada, terutama di area yang muncul, khusus, atau kurang terwakili di mana cakupan data terbatas.