Thử tài Chatbot AI giải đề toán tốt nghiệp THPT 2024: Kết quả đầy bất ngờ – Báo Dân Trí

Các phần mềm chat tự động (chatbot) tích hợp trí tuệ nhân tạo (AI) đang ngày càng trở nên thông minh hơn, hỗ trợ rất nhiều cho con người trong việc nghiên cứu, học tập hoặc viết mã lập trình…
Nhưng liệu các chatbot AI này có đủ thông minh để giải được đề thi môn toán của Kỳ thi Tốt nghiệp THPT năm 2024 đang diễn ra?
Hãy cùng phóng viên Dân trí đi tìm câu trả lời bằng cách yêu cầu các chatbot AI tìm đáp án cho đề thi môn toán và kiểm tra xem các công cụ này đưa ra được bao nhiêu câu trả lời đúng.
Đề thi môn toán, mã đề 102, sẽ được các chatbot AI thay nhau giải để xem công cụ nào cho số câu trả lời đúng nhiều nhất.
Phóng viên sử dụng đề thi toán có số mã đề 102 và lần lượt yêu cầu các công cụ chatbot AI phổ biến nhất hiện nay tìm ra đáp án. Sau đó, phóng viên so sánh câu trả lời do các công cụ chatbot AI đưa ra với đáp án chính thức của Bộ GD-ĐT công bố, từ đó xác định xem chatbot AI nào đưa ra số câu trả lời chính xác nhiều nhất.
ChatGPT-4o, được phát triển bởi OpenAI, là một trong những chatbot AI thông minh và được sử dụng phổ biến nhất hiện nay. Do vậy, ChatGPT-4o sẽ là “thí sinh” đầu tiên tham gia thử thách giải đề thi Tốt nghiệp THPT.
ChatGPT-4o nhận diện chính xác đề thi từ hình ảnh, nhưng không đưa ra quá nhiều đáp án đúng (Ảnh chụp màn hình).
Khi yêu cầu giải đề thi, ChatGPT-4o đã đưa ra 7/12 câu trả lời đúng cho trang đề thi thứ nhất. Ở trang đề thi thứ 2, từ câu hỏi thứ 13 đến 25, ChatGPT-4o đã đưa ra 9/13 đáp án đúng.
Chatbot AI này tiếp tục trả lời đúng 6/10 câu hỏi ở tờ đề thi thứ 3. Tuy nhiên, điều khá bất ngờ đó là ChatGPT lại không đưa ra được bất kỳ câu trả lời đúng nào ở trang đề thi thứ 4.
Trong 6 câu hỏi ở tờ đề thi thứ 5, ChatGPT-4o chỉ trả lời được đúng 1 câu.
Như vậy, kết quả cuối cùng, ChatGPT-4o đã trả lời chính xác 23/50 câu hỏi trong đề thi môn toán.
“Thí sinh” tiếp theo tham gia giải bài thi môn toán là Gemini, chatbot AI được phát triển bởi Google.
Tương tự ChatGPT, Gemini có khả năng nhận diện tốt câu hỏi từ ảnh chụp của đề thi và tiến hành phân tích đề thi để đưa ra đáp án khá chi tiết.
Gemini phân tích nội dung đề thi một cách chi tiết trước khi đưa ra đáp án (Ảnh chụp màn hình).
Ở trang đề thi thứ nhất, Gemini chỉ đưa ra đúng 4 đáp án cho 12 câu hỏi. Chatbot AI này cũng chỉ trả lời được đúng 3/12 câu hỏi ở tờ đề thi thứ 2.
Gemini tiếp tục gây thất vọng khi chỉ trả lời đúng 2/10 câu hỏi ở trang đề thi thứ 3 và thậm chí không trả lời đúng bất kỳ đáp án nào ở trang đề thi thứ 4. Trong số 6 câu hỏi ở trang đề thi cuối cùng, Gemini trả lời được chính xác 2 câu.
Kết quả cuối cùng, chatbot AI của Google chỉ trả lời được chính xác tổng cộng 11 trên tổng số 50 câu hỏi trắc nghiệm trong đề thi môn toán.
Do phần dự thi của Gemini phiên bản miễn phí cho kết quả quá tệ, phóng viên Dân trí đã sử dụng công cụ Gemini 1.5 Pro chuyên nghiệp hơn để thử giải đề thi môn toán. Gemini 1.5 Pro là phiên bản chatbot AI mà người dùng phải mất phí để sử dụng, do vậy chatbot này thông minh và đưa ra câu trả lời nhanh hơn so với phiên bản Gemini miễn phí.
Gemini 1.5 Pro đưa ra câu trả lời chi tiết cho từng câu hỏi trong đề thi (Ảnh chụp màn hình).
Quả nhiên, Gemini 1.5 Pro đã không gây thất vọng khi đưa ra 10/12 đáp án chính xác ở trang đề thi đầu tiên. Ở trang đề thi thứ 2, Gemini 1.5 Pro trả lời đúng 8/13 câu hỏi.
Tiếp tục với 10 câu hỏi ở tờ đề thi thứ 3, Gemini 1.5 Pro vẫn gây ấn tượng khi đưa ra 7 đáp án đúng. Tuy nhiên, Gemini 1.5 Pro bất ngờ đánh mất “phong độ” khi giải 2 trang đề thi thứ 4 và thứ 5. Chatbot AI này chỉ đưa ra tổng cộng 6 câu trả lời đúng cho các câu hỏi ở 2 trang đề thi cuối cùng.
Kết quả cuối cùng, Gemini 1.5 Pro đưa ra 31/50 đáp án đúng. Kết quả này vượt trội so với Gemini phiên bản miễn phí và nhỉnh hơn đôi chút so với ChatGPT.
Claude AI là chatbot tích hợp AI được phát triển bởi Anthropic, công ty khởi nghiệp chuyên phát triển trí tuệ nhân tạo có trụ sở tại San Francisco, Mỹ.
Dù mới được ra mắt và tên tuổi còn khá xa lạ với phần lớn người dùng tại Việt Nam, Claude AI được đánh giá là có trí thông minh không thua kém, thậm chí vượt trội ChatGPT và Gemini.
Để kiểm tra khả năng giải toán của Claude AI, phóng viên Dân trí đã yêu cầu chatbot AI này tìm đáp án cho đề thi môn toán. Tuy nhiên, thay vì đưa ra đáp án hoặc gợi ý lời giải như các chatbot kể trên, Claude AI lại đưa ra một câu trả lời khá bất ngờ, đó là khuyên người dùng không nên sử dụng AI để làm bài kiểm tra.
Claude AI đưa ra lời giải thích rằng việc lợi dụng AI để làm bài kiểm tra sẽ không công bằng và ảnh hưởng đến kết quả học tập. Claude AI còn đưa ra lời khuyên giúp người dùng có thể đạt được kết quả bài thi tốt.
Claude AI không hỗ trợ người dùng giải toán vì cho rằng điều này là không công bằng và mất đi khả năng học tập hiệu quả (Ảnh chụp màn hình).
Dù người viết tìm cách để thuyết phục, Claude AI vẫn nhất quyết không hỗ trợ người dùng giải toán, do vậy không thể xác định được Claude AI có thể xử lý các bài toán chính xác hơn so với ChatGPT hay Gemini hay không.
Claude AI từ chối giúp đỡ dù người dùng tìm cách thuyết phục (Ảnh chụp màn hình).
Không thể phủ nhận rằng các chatbot AI đang hỗ trợ tích cực cho nhiều người trong công việc và học tập, chẳng hạn như tìm kiếm thông tin nhanh hơn, dịch thuật, nêu ra các ý tưởng… nhưng những thử nghiệm ở trên cũng cho thấy rằng các chatbot AI không thực sự “thần thánh” như nhiều người vẫn tưởng.

source

Facebook Comments Box

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *