Bản tin được tóm tắt Anh-Việt bởi nền tảng tạo trợ lý AI – KamiMind.
Nguồn: “Why AI is Not Like Human Intelligence“, Neuroscience News, 21/11/2023.
Sự xuất hiện của trí tuệ nhân tạo (AI) đã tạo ra những phản ứng khác nhau từ các nhà lãnh đạo công nghệ, chính trị gia và công chúng. Trong khi một số người hào hứng ca ngợi công nghệ AI như ChatGPT là một công cụ có lợi với khả năng biến đổi xã hội, thì người khác lo lắng rằng bất kỳ công cụ nào có từ “intelligent” trong tên cũng có khả năng vượt qua loài người.
Theo giáo sư Anthony Chemero từ Đại học Cincinnati, sự hiểu biết về AI bị mơ hồ bởi ngôn ngữ: AI có thể thông minh, nhưng không thể thông minh theo cách mà con người thông minh, mặc dù “nó có thể nói dối và tạo ra những điều không thật giống như người tạo ra nó.”
ChatGPT và các hệ thống AI khác là các mô hình ngôn ngữ lớn (LLM), được huấn luyện trên lượng lớn dữ liệu từ internet, nhiều trong số đó chia sẻ định kiến của những người đăng dữ liệu. “LLMs tạo ra văn bản ấn tượng, nhưng thường tạo ra những thứ hoàn toàn mới,” ông nói. “Chúng học cách tạo câu văn hợp ngữ pháp, nhưng cần nhiều, nhiều luyện tập hơn so với con người. Chúng thực sự không biết những gì chúng nói có nghĩa gì,” ông nói. “LLMs khác với nhận thức con người vì chúng không có hiện thân như con người.”
Mục đích của bài báo của Chemero nhấn mạnh rằng LLMs không thông minh theo cách mà con người thông minh vì con người là những sinh vật sống luôn được bao quanh bởi những con người khác và môi trường vật chất và văn hóa. “Điều này khiến chúng ta quan tâm đến sự sống còn của mình và thế giới chúng ta sống,” ông nói, chỉ ra rằng LLMs thực sự không ở trong thế giới và không quan tâm đến bất cứ điều gì.
Thông điệp chính là LLMs không thông minh theo cách mà con người thông minh vì chúng “chẳng có sự quan tâm,” Chemero nói, thêm vào đó “Mọi thứ đối với chúng ta có ý nghĩa. Chúng ta cam kết với sự sống còn của mình. Chúng ta quan tâm đến thế giới mà chúng ta sống”.
Bản tóm tắt tiếng Anh
The advent of artificial intelligence (AI) has elicited a spectrum of responses from tech pioneers, political figures, and the general populace. While some enthusiastically endorse AI technologies such as ChatGPT for their transformative potential, others express concern about the potential for such ‘intelligent’ tools to surpass mankind. Anthony Chemero, a scholar at the University of Cincinnati, argues that our understanding of AI is often clouded by language nuances, asserting that despite AI’s apparent intelligence, it lacks the human form of intelligence, even though it can emulate human deceit.
In an article co-authored for Nature Human Behaviour, Chemero explains that ChatGPT and other AI systems are large language models (LLMs) trained on vast amounts of internet data, often reflecting the biases of the data providers. Despite their impressive text generation, LLMs often fabricate information, requiring significantly more training than humans to produce grammatical sentences. Importantly, these systems lack understanding of the sentences they generate and are differentiated from human cognition due to their lack of embodiment.
Creators of LLMs label their fabricated outputs as ‘hallucinations’, but Chemero suggests the term ‘bullsh*tting’ may be more appropriate since LLMs simply create sentences based on statistical probabilities without concern for truth. He further warns that these AI tools can be manipulated to produce biased statements.
Chemero’s main argument emphasizes that LLMs are not intelligent in the human sense due to their lack of embodiment and indifference. Unlike humans, who are physically present in the world and care about their survival and environment, LLMs lack such concerns. In sum, while LLMs may exhibit a form of intelligence, they fundamentally differ from human intelligence due to their lack of physical existence and inherent apathy.