Telah Terbit Tanwirul Afkar 564: Musuh Baru Para Buruh

Telah Terbit Tanwirul Afkar 564: Musuh Baru Para Buruh

MICROSOFT pernah meluncurkan AI berbasis Chatbot yang memiliki akun Twitter. Chatbot bernama TayTweets itu bisa melakukan interaksi dengan orang-orang di dunia maya. Belajar dari bahasa yang diterimanya dari netizen, Tay dapat membikin suatu cuitan hingga saling membalas komentar.

Tay disambut antusias oleh pengguna Twitter. Hanya dalam waktu kurang dari sehari saja, akun @TayandYou telah memperoleh 50 ribu pengikut dan menulis hampir 100 ribu tweet. Itu karena kelebihan Tay adalah bisa membaca algoritma Twitter. Tapi masalah muncul setelah 12 jam robot ini diluncurkan pada 23 Maret 2016.

Mula-mula, cuitan-cuitan awal robot besutan Microfot ini seperti gadis ceria yang hangat. Tay memang dirancang dengan mimik susunan bahasa dari seorang gadis Amerika berumur 19 tahun. Tapi karena algoritma membaca lingkungan Twitter yang merupakan tempat serigala berkumpul , Tay berubah drastis. Tay mulai mengunggah gambar grafis berunsur seksual (hal yang biasa di Twitter), memuntahkan kata-kata rasis seperti mengungkap bahwa dirinya membenci Yahudi selain juga menyerang kalangan feminis. Publik Amerika tentu tidak menyukai perilaku semacam ini.

Penelitian terbaru oleh Jurnal Science edisi 14 April 2017 mengungkap bahwa Tay mungkin bukan satu-satunya AI yang rasis. Setiap AI yang mempelajari bahasa manusia akan cenderung melakukan hal yang sama seperti manusia. Bahkan perangkat AI yang dilatih untuk teks-teks netral saja, seperti wikipedia atau artikel berita, bisa saja rasis dan bias gender.

Berbeda dengan manusia, AI sangat buruk pada pemahaman konteks. AI sulit sekali diajari memahami keadilan, dan sopan santun tentu saja. Yang terakhir ini bahkan masih sulit dipahami manusia. Sedikit saja algoritma robot “salah bergaul” seperti dalam kasus Tay, sulit untuk tidak tertular pengaruh buruk. Bagi Fliedler, ilmuwan komputer Haverford College, tidak mudah menemukan solusi dari masalah bahasa dalam kecerdasan buatan. Menurutnya, dalam situasi bias, manusia tahu bagaimana membuat keputusan yang tepat. Tapi sayangnya, mesin tidak punya kesadaran.

Sebaik-baik mesin adalah seburuk-buruk manusia. Percobaan Microsoft menunjukkan pada kita betapa suatu kecerdasan buatan masih jauh dari nilai-nilai etika dan karena itu tidak sempurna. Tapi di luar perdebatan etis kecerdasan buatan, ada jutaan nasib para pekerja yang gigit jari sebab kecerdasan buatan yang punya potensi menggantikan pekerjaan mereka. Mari simak kajian kegelisahan ini dalam Majalah Tanwirul Afkar edisi 564!

  • Facebook
  • Twitter
  • Pinterest

Narahubung:

Kantor Tanwirul afkar: 082233117271

Add a Comment

Your email address will not be published.

Pin It on Pinterest

Exit mobile version