Hei Siri, kamu bodoh

Siri, apakah Anda mematuhi Tiga Hukum Robotika? Seperti banyak pertanyaan konyol lainnya, itu adalah salah satu yang telah diantisipasi dengan susah payah oleh seseorang di Apple. "Saya lupa tiga yang pertama," celetuk jawabannya, "tetapi ada yang keempat: 'Mesin pintar pertama-tama harus mempertimbangkan mana yang lebih berharga: untuk melakukan tugas yang diberikan atau, sebaliknya, mencari jalan keluar darinya'. ”

Ha ha! Bayangkan pertemuan di mana mereka menulis yang itu! Masalahnya, itu bukan lelucon, kan? Itulah ringkasan pengembangan mereka yang sebenarnya.

Siri dapat melakukan banyak hal mudah, seperti menjumlahkan, memeriksa ramalan cuaca, dan mengirim email. Tuntut sesuatu yang lebih keras dan itu akan menangkis "Saya tidak yakin saya mengerti" atau hanya melakukan pencarian web untuk apa yang Anda katakan. Yah, teriakan-de-doo. Singularitas ah.

Lihat terkait Sepuluh hal yang Apple bunuh, dan mengapa itu benar Ulasan Apple iPhone 6s: Ponsel yang kokoh, bahkan bertahun-tahun setelah dirilis

Munculnya bot do-it-all – termasuk Amazon Alexa, Asisten Google yang akan datang, dan bahkan saingan dari pengembang asli Siri, yang disebut Viv – memberikan sorotan yang tidak nyaman pada petugas tanpa tubuh iOS. Jika, seperti yang dikabarkan, itu akan diumumkan sebagai fitur utama OS X 10.12 Sensemilla*, kita hanya bisa berharap lompatan kuantum dalam kecerdasan ada di dalam pipa. Karena mungkin ada beberapa trik, tetapi Siri belum retak menjadi bijak.

Satu arah

“Tapi itu berhasil. Kebanyakan. Jika Anda berbicara seperti penyiar BBC.”

Sangat bagus bahwa ada teknologi untuk mengubah ucapan menjadi teks. Tidak terlalu bagus sehingga teknologinya tampaknya tidak muat di ponsel Anda, jadi harus duduk di Carolina Utara menggunakan kuota data Anda. Tapi itu berhasil. Kebanyakan. Jika Anda berbicara seperti penyiar BBC.

Kemudian teks itu dapat ditambang untuk kata kunci untuk dihubungkan ke salah satu sumber informasi Siri, yang meliputi Apple Maps, Wolfram Alpha, Wikipedia, dan Microsoft Bing. (Untungnya Anda dapat menukar Bing dengan mesin pencari asli di Pengaturan | Safari | Mesin Pencari. Namun, tidak dengan meminta Siri. Itu akan terlalu mudah.)

Tetapi cara Siri menggunakan sumber-sumber itu jauh dari kata pintar. Ketika saya membuka Peta dan mengetik 'Whickham' ke dalam kotak pencarian, itu dengan benar menemukan daftar tempat di dalam Whickham, sebuah kota kecil di dekat tempat tinggal saya. Di antaranya adalah entri umum untuk Whickham itu sendiri, yang ditandai tepat di samping kata 'Whickham' di peta Apple. Pengaturan hurufnya indah, omong-omong.

Saya seharusnya tidak terlalu mengagumi pengaturan huruf saat mengemudi, jadi alih-alih saya katakan: "Hai Siri, navigasikan ke Whickham." Secepat kilat, Siri menemukan High Wycombe, Buckinghamshire. Itu adalah ujung lain dari Inggris. Itu tidak menanyakan apakah ini Wycombe yang saya maksud; itu hanya mulai merencanakan rute.

(Ini tidak sebodoh yang didapat. Ketika saya menanyakan arah ke 'Washington,' kota lain di Tyne and Wear, kota itu menawarkan saya Olympia, WA, 4.600 mil jauhnya. Bahkan kemungkinan besar Washington tidak salah.)

"Tidak, Siri, Whickham, W-H-I-C-K-H-A-M."

Sekarang, ada satu cara yang sangat jelas untuk mengatasi kebingungan ini: Anda mengeja kata. Jadi saya mencoba: "Tidak, Siri, Whickham, W-H-I-C-K-H-A-M." Ia mendengar ini dengan sangat baik, dan segera mengumumkan bahwa ia tidak dapat menemukan tempat yang cocok. Segera, ingatlah – jangan pergi untuk memeriksa sumber. Hanya tidak. Ingat, Whickham ada di sana di Apple Maps, mesin yang sama yang digunakannya untuk menunjukkan kepada saya High Wycombe.

Satu-satunya cara saya akhirnya sampai ke Whickham adalah dengan mengingat nama jalan di sana (Front Street) dan menanyakannya, lalu memikirkan cara lain untuk memintanya setelah Siri menunjukkan Front Street yang salah dan, sekali lagi, tidak menawarkan alternatif. Untuk menambah penghinaan pada cedera, itu memilih Jalan Depan yang paling dekat dengan lokasi saya saat ini. Jelas sekali.

Maaf, saya tidak mengikuti

Jenis kueri lainnya ditangani dengan kebodohan serupa. "Siri, apa perbedaan antara PDB Jerman dan Italia?" Tidak masalah – ia pergi dan mendapatkan jawaban yang benar dari Wolfram Alpha. Kemudian saya mencoba pertanyaan lanjutan. Siri dulunya sampah pada pertanyaan tindak lanjut, tetapi melawan idenya setelah Google Voice Search keluar dan mengunggulinya. Sekarang Anda dapat bertanya “Bagaimana cuaca pada hari Senin?” dan tambahkan “Bagaimana dengan hari Selasa?” dan itu baik-baik saja. Atau mendung, seperti yang terjadi.

Jadi saya menindaklanjuti dengan: "Bagaimana dengan Prancis?" Itu salah mendengar "Prancis" sebagai "teman". Dari semua kata yang mungkin saya katakan, fakta bahwa saya baru saja menyebutkan dua negara Eropa lainnya tampaknya tidak menambah bobot kemungkinan bahwa yang saya maksud adalah "Prancis". AI interaktif terkemuka di dunia, teman-teman.

Saya memiliki kerabat berusia 88 tahun yang sangat tuli. Ketika Anda mengulangi sesuatu yang dia salah dengar, dia menebak kata yang berbeda. Dia mungkin masih salah, tetapi dia tidak menebak kata yang sama lagi, karena mengapa Anda mengulanginya? Saya ulangi "Bagaimana dengan Prancis?" tiga kali. Tiga kali, Siri mengembalikan "Bagaimana dengan teman?" "Pertanyaan yang menarik, Adam," jawabnya, cerah.

Akhirnya saya menyadari bahwa saya perlu mengatakan "Prancis" dengan aksen mewah (saya orang utara, jadi "Prancis" berima dengan "celana"). Siri kembali dengan nomor telepon Elizabeth France CBE, yang ada di kontak saya sejak dia menjadi Pencatat Perlindungan Data. Karena jelas yang saya maksud adalah orang acak yang kantornya terakhir saya hubungi 14 tahun lalu, bukan negaranya. (Negara yang bertetangga dengan dua negara lain yang baru saja saya sebutkan.) Dan saya sering menyebut orang hanya dengan nama keluarga mereka. Itu benar-benar suatu hal. "Siri, bagaimana dengan Carruthers?"

Sampah masuk

Jenis logika yang hilang di sini seharusnya tidak sulit. Itu sudah ada, dalam beberapa hal. Anda dapat mengatakan – tiba-tiba, propos de rien – “Hai Siri, Ivy adalah saudara perempuan saya.” Setelah memeriksa Ivy yang Anda maksud, jika Anda memiliki lebih dari satu di kontak Anda, Siri akan bertanya: "Oke, apakah Anda ingin saya mengingat bahwa Ivy adalah saudara perempuan Anda?" Ucapkan “Ya”, dan di masa mendatang Anda dapat mengatakan “Telepon adikku” untuk menghubungi kontak ini.

Hubungan keluarga memiliki saling ketergantungan standar, jadi tentu saja Anda kemudian dapat melanjutkan untuk menentukan "Oliver adalah putra Ivy" dan kemudian mengatakan "Siri, SMS keponakan saya" untuk mengirim pesan ke kontak ini. Ini bukan ilmu roket, tapi itu bagus ... tunggu sebentar. Tidak. Siri melakukan pencarian web untuk "Oliver is Ivy's son". Bahkan tidak bisa sejauh itu.

"Yang paling menyebalkan dari Siri adalah, untuk sistem yang dirancang untuk mendengarkan, itu adalah pendengar yang buruk."

Apa yang paling menyebalkan tentang Siri adalah, untuk sistem yang dirancang untuk mendengarkan, itu adalah pendengar yang buruk. Dan itu lebih dari sekadar bug. Ketidakpedulian yang tidak dapat dibenarkan, penolakan datar untuk merenungkan ketidaktahuannya sendiri, adalah gejala yang tak terhindarkan dari keangkuhan Lembah Silikon.

Memahami ucapan manusia dan maksud di baliknya merupakan tantangan besar bahkan bagi manusia. Sebagai pembicara, kita tersandung kata-kata kita; sebagai pendengar, kita salah mengartikannya. Sebagian besar dari setiap percakapan dengan lembut meminta klarifikasi atau menyelesaikan ambiguitas.

Namun Siri tidak akan memiliki semua itu. Untuk semua lapisan percakapannya, itu hanya mencari input kami untuk perintah gonggongan yang sama yang dapat kami temukan di menu. Entah itu tahu apa yang kita inginkan, atau "tidak mengerti", cara pasif-agresif untuk mengatakan "Input tidak valid". Tidak ada apa-apa di antaranya.

“Begitulah Bay Area,” kata orang-orang sekarang, ketika beberapa maestro teknologi yang memiliki hak istimewa membuat kesalahan menjadi masalah manusia yang kompleks dengan solusi yang terlalu disederhanakan untuk masalah yang salah. Kami mungkin juga mengatakan: "Itu sangat Siri."

*Buktikan kita salah kalau begitu

BACA BERIKUTNYA: Sepuluh hal yang Apple bunuh – dan mengapa itu benar

Tulisan Terbaru

$config[zx-auto] not found$config[zx-overlay] not found