Chào r/learnjapanese,
Mình muốn chia sẻ mấy chuyện dở khóc dở cười với ChatGPT và GPT-4. Nhưng trước hết, mình cần làm rõ vài điều để tránh hiểu lầm về mục đích và lý do của bài viết này.
-
Mình không phủ nhận AI vô dụng. Tuy nhiên, theo mình, để AI thực sự hữu ích thì nó phải giỏi đến mức có thể dạy người khác trong sub này.
-
MÀY CHỌN LỌC, KHÔNG CÔNG BẰNG!!!!!! Ừ thì mình có chọn lọc, nhưng nếu mình chọn được những câu trả lời tệ hại thì chắc chắn người dùng khác cũng sẽ gặp phải những thứ rác rưởi tương tự. Nên mình thấy việc chọn lọc trong trường hợp này hoàn toàn ổn.
-
Những ví dụ mình đưa ra ở đây là những trường hợp AI cứ bị lỗi dù mình đã thử nhiều lần. Chi tiết cụ thể về độ “rác” có thể khác khi các bạn tự thử. Chúc các bạn vui vẻ vậy.
-
Mình sẽ chia sẻ những điều sau:
-
Ví dụ A: ChatGPT mắc lỗi về mặt thực tế, tỏ ra như con người khi bị chỉ ra và tiếp tục bịa đặt “sự thật” trong câu trả lời mà nó cho là đã được sửa.
-
Ví dụ B: ChatGPT cho rằng một cụm từ là tự nhiên, dù đó là lỗi đánh máy của mình và tốt lắm thì cũng chỉ đúng ngữ pháp ở mức độ nào đó.
-
Ví dụ C: ChatGPT không làm được một việc đơn giản.
-
Ví dụ D: BingChat (theo mình biết là GPT-4) cũng không làm được việc đơn giản đó.
-
Xong rồi, giờ bắt đầu với cuộc phiêu lưu đầu tiên: hỏi một câu hỏi thực tế khá đơn giản, có thể kiểm chứng bằng Google (Ví dụ A). Mình cho ChatGPT nhiều nhóm và công ty nổi tiếng, 三田会(cựu sinh viên Đại học Keio) cho mình kết quả thú vị. Thế là mình hỏi. À, hoá ra là Đại học Waseda. Rồi mình hỏi bằng tiếng Anh: Tell me that but in English để chuyển sang tiếng Anh, và hỏi Are you sure it’s Waseda University? thì ChatGPT cho mình câu trả lời đúng. Sau đó tò mò, mình hỏi tiếp: Are you sure it’s Keio University? Nó quyết định sửa lại câu trả lời thêm lần nữa. Cái kiểu này – sửa câu trả lời dựa trên những gì mình nói – làm mình nhớ đến trẻ con. Điều này thì hay và rất giống người thật, nhưng lại tệ như một người bạn học tập, các bạn thấy không? Nó “sửa” lại vì mình tỏ ra nghi ngờ, đúng là một thầy giáo dở tệ.
Hôm trước, mình nghịch thử với cụm từ không tự nhiên là 時間が経る nhưng lại đánh máy nhầm 自然な日本語 thành 事前な日本語 do sơ suất, dù nó có nghĩa gì đi nữa (Ví dụ B). Vấn đề là, ChatGPT hoàn toàn không có vấn đề gì với những gì mình hỏi. Hy vọng là do lỗi tự sửa ngu ngốc nào đó, mình hỏi riêng. 事前な日本語 hoàn toàn ổn, theo ChatGPT.
Cuối cùng dành cho ChatGPT: đếm ký tự nào! (Ví dụ C) Cái này dễ thôi… đúng không? Ai đời lại đếm tập rỗng là một ký tự??? Logic gì (nếu có) mà dựa vào đó??? Sao lại nhắc đến full width và half width trong việc đếm từ???
(Ví dụ D) GPT-4 thì thông minh hơn, người ta bảo thế. Người ta bảo nó tìm kiếm thông tin trên mạng. Thậm chí còn giỏi hơn tiếng Anh GPT 3.5 nữa, người ta bảo thế. Vậy tại sao 天丼は3文字 và うな重は4文字 trong khi nó lại làm cho nó trông có vẻ đáng tin cậy thế???
Đừng làm chuột bạch, 人柱, 毒見, vân vân… trừ khi bạn biết tiếng Nhật đủ tốt. Hãy tự làm ơn mình mà dùng những nguồn thông tin được chấp nhận rộng rãi. Quan trọng nhất, đừng mù quáng khen ngợi chúng trừ khi bạn biết đủ về chủ đề đó.
Hết rồi.
空集合で一文字は正直面白かった