Bản tin được tóm tắt Anh-Việt bởi nền tảng tạo trợ lý AI – KamiMind.
Nguồn: Melissa Heikkilä, “Unpacking the hype around OpenAI’s rumored new Q* model“, technologyreview.com, 27/11/2023.
Đã có những tin đồn về việc giám đốc khoa học của OpenAI, Ilya Sutskever, và hội đồng quản trị đã sa thải CEO Sam Altman sau các sự kiện nổi bật của công ty tuần trước. Mặc dù chưa biết rõ về chi tiết, các báo cáo cho biết các nhà nghiên cứu tại OpenAI đã đạt được một “bước đột phá” trong lĩnh vực trí tuệ nhân tạo, khiến các thành viên trong công ty lo lắng.
Các nhà nghiên cứu đã tạo ra một mô hình mới, được gọi là Q*, có khả năng giải quyết các bài toán toán học cấp tiểu học. Đây được coi là một cột mốc quan trọng trong việc xây dựng trí tuệ nhân tạo tổng quát, một hệ thống thông minh vượt trội con người. Mặc dù OpenAI từ chối bình luận về Q*, mạng xã hội đã lan truyền nhiều giả thuyết và sự quá đà về khả năng của nó.
Các chuyên gia đã được tư vấn để hiểu rõ hơn về ý nghĩa của bước đột phá trong toán học và trí tuệ nhân tạo. Hiện tại, không có thuật toán hoặc kiến trúc phù hợp để giải quyết các bài toán toán học một cách đáng tin cậy bằng trí tuệ nhân tạo. Toán học đòi hỏi các mô hình trí tuệ nhân tạo có khả năng suy luận và hiểu sâu về các khái niệm trừu tượng.
Một hệ thống trí tuệ nhân tạo mạnh mẽ có khả năng giải quyết các bài toán toán học có thể mang lại nhiều lợi ích trong giảng dạy, nghiên cứu khoa học và kỹ thuật. Tuy nhiên, không phải lúc nào giải quyết các bài toán toán học cấp tiểu học cũng đồng nghĩa với việc ra đời một siêu trí tuệ. Một số nhà nghiên cứu đã cảnh báo về nguy cơ trí tuệ nhân tạo độc lập và mối lo ngại về an toàn nếu cho phép các hệ thống trí tuệ nhân tạo tự đặt mục tiêu và tương tác với thế giới vật lý hoặc kỹ thuật số.
Những tin đồn và sự quá đà về các mô hình trí tuệ nhân tạo mới có thể gây thiệt hại cho lĩnh vực trí tuệ nhân tạo, bằng cách lạm dụng và làm mất tập trung khỏi các vấn đề thực tế và cụ thể. OpenAI đã thiết lập một hội đồng quản trị nhằm ngăn chặn việc ra mắt các công nghệ có hại và đảm bảo lợi ích kinh tế. Tuy nhiên, việc thuyết phục về việc tự điều chỉnh các mô hình trí tuệ nhân tạo là một thách thức khó khăn đối với các nhà lập pháp.
Bản tóm tắt tiếng Anh
Ever since the recent events at OpenAI, speculations have been circulating regarding the reasons behind the ousting of CEO Sam Altman by the company’s chief scientific officer, Ilya Sutskever, and its board.
Reports suggest that researchers at OpenAI have made a breakthrough in AI, creating a new model called Q* that can perform grade-school-level math. While this development has sparked excitement, experts point out that current AI models struggle with math problem-solving due to the lack of appropriate algorithms and architectures.
Math is considered a benchmark for reasoning, and an AI system capable of understanding and solving math problems could potentially extend its abilities to other tasks. However, the ability to solve math problems does not automatically lead to the development of superintelligence or pose existential risks. It is crucial to distinguish between solving elementary-school math problems and pushing the boundaries of mathematics.
Despite the potential benefits of an AI system proficient in math, it is important to remain cautious and not get caught up in hype cycles, as they can divert attention from real issues surrounding AI.
The recent events at OpenAI also raise concerns about the company’s governance and self-regulation, potentially impacting the ongoing discussions around AI regulation.