Media sosial (medsos) ternyata tidak hanya memiliki dampak negatif pada manusia, tetapi juga pada teknologi kecerdasan buatan (artificial intelligence/AI) jika pengguna terlalu banyak “scrolling” di media tersebut. Menurut sebuah riset yang dilakukan oleh tim peneliti di University of Texas at Austin dan Case Western Reserve University, terungkap bahwa AI model bahasa besar (large language models atau LLM) yang dilatih dengan “data sampah” mengalami penurunan kemampuan penalaran logis dan bahkan perubahan kepribadian yang mengkhawatirkan.
Para peneliti ingin mengetahui sejauh mana pengaruh data berkualitas rendah terhadap kemampuan AI dalam berpikir logis, merespons informasi, dan menunjukkan kepribadian. Mereka menemukan bahwa model AI yang dilatih dengan data dari media sosial yang pendek, sensasional, dan dangkal cenderung memberikan jawaban yang keliru, melewatkan langkah-langkah penalaran logis, dan bahkan mengubah sifat kepribadian.
Upaya untuk memperbaiki model AI yang terpengaruh oleh data “sampah” dilakukan dengan menambahkan instruksi khusus dan mengurangi proporsi data berkualitas rendah selama pelatihan. Namun, hasilnya hanya sedikit memperbaiki kinerja model-model tersebut. Hal ini menunjukkan bahwa kerusakan yang disebabkan oleh data buruk bisa bersifat sistemik dan membutuhkan pendekatan baru untuk menetralkan efek negatifnya.
Studi ini juga membawa garis keras bagi perusahaan teknologi yang menggunakan konten media sosial dalam melatih AI mereka. Kualitas informasi harus diperhatikan demi memastikan AI yang mampu berpikir seperti manusia. Dalam era di mana jumlah informasi dangkal dan misinformasi melimpah di internet, tantangan terbesar bukanlah ukuran model AI, tetapi bagaimana memastikan mereka terhindar dari dampak negatif sampah digital.
