Đang Tải...

Trang chủ
Tot Blog

Kiến thức & Tin công nghệ

[Giải nén AI] Neural Networks: Mạng nơ-ron nhân tạo

30/05/2023

icon

Neural Networks – Mạng nơ-ron nhân tạo, là một thuật ngữ quan trọng trong lĩnh vực trí tuệ nhân tạo, đóng góp rất nhiều vào các quá trình trở nên “có suy nghĩ” của máy móc. Tiếp theo với series Giải nén AI, chúng ta sẽ cùng đến với “Neutral Networks: Mạng nơ-ron nhân tạo”

Mục lục

Mục lục

1. Neural Networks (Mạng nơ-ron nhân tạo) là gì?

Neural Networks, còn được gọi là mạng nơ-ron thần kinh nhân tạo (Artificial Neural Networks – ANNs) hoặc mạng thần kinh mô phỏng (SNNs), là một phần của học máy và là trái tim của các thuật toán học sâu (Deep Learning). 

Tên gọi và cấu trúc của chúng được lấy cảm hứng từ não người, mô phỏng cách mà các tế bào thần kinh sinh học tương tác với nhau.

1.1. Kiến trúc cơ bản

Mạng nơ-ron nhân tạo bao gồm các tầng nút, một tầng đầu vào, một hoặc nhiều tầng ẩn và một tầng đầu ra. Mỗi nút, hoặc nơ-ron nhân tạo, kết nối với một nút khác và có một trọng số và ngưỡng liên quan. Nếu đầu ra của bất kỳ nút nào vượt quá giá trị ngưỡng được chỉ định, nút đó được kích hoạt, gửi dữ liệu đến tầng tiếp theo của mạng. Nếu không, không có dữ liệu được chuyển tiếp đến tầng tiếp theo của mạng.

Kiến trúc cơ bản của mạng nơ-ron nhân tạo

Mạng thần kinh dựa vào dữ liệu huấn luyện để học và cải thiện độ chính xác theo thời gian. Tuy nhiên, sau khi các thuật toán học này được điều chỉnh để đạt được độ chính xác cao, chúng trở thành công cụ mạnh mẽ trong khoa học máy tính và trí tuệ nhân tạo, cho phép chúng ta phân loại và gom cụm dữ liệu với tốc độ cao. Các nhiệm vụ như nhận dạng giọng nói hoặc nhận dạng hình ảnh có thể mất vài phút so với vài giờ nếu so sánh với việc xác định thủ công bởi các chuyên gia con người. Một trong những mạng thần kinh nổi tiếng nhất là thuật toán tìm kiếm của Google.

1.2. Lịch sử của Neural Networks

Lịch sử của mạng nơ-ron nhân tạo kéo dài hơn nhiều so với những gì hầu hết mọi người nghĩ. Trong khi ý tưởng về “một máy tính suy nghĩ” có thể được truy nguyên về thời Hy Lạp cổ đại, chúng ta sẽ tập trung vào những sự kiện quan trọng đã dẫn đến sự tiến hóa của tư duy về mạng thần kinh, qua các năm:

  • 1943: Warren S. McCulloch và Walter Pitts công bố “A logical calculus of the ideas immanent in nervous activity”

Warren S. McCulloch và Walter Pitts công bố “A logical calculus of the ideas immanent in nervous activity”. Nghiên cứu này nhằm hiểu cách não bộ con người có thể tạo ra các mẫu phức tạp thông qua các tế bào não kết nối, hay còn gọi là nơ-ron. Một trong những ý tưởng chính được đưa ra từ công việc này là so sánh giữa nơ-ron với ngưỡng nhị phân và logic Boolean (tức là câu lệnh 0/1 hoặc đúng/sai).

  • 1958: Frank Rosenblatt được công nhận là người phát triển perceptron

Frank Rosenblatt được công nhận là người phát triển perceptron, được ghi lại trong nghiên cứu của ông “The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain”. Ông tiến xa hơn công việc của McCulloch và Pitt bằng cách giới thiệu trọng số vào phương trình. Sử dụng máy tính IBM 704, Rosenblatt đã làm cho máy tính có khả năng học cách phân biệt giữa các thẻ được đánh dấu bên trái và các thẻ được đánh dấu bên phải.

  • 1974: Paul Werbros ứng dụng của thuật toán truyền ngược

Trong khi nhiều nhà nghiên cứu đã đóng góp vào ý tưởng về thuật toán truyền ngược (backpropagation), Paul Werbos là người đầu tiên tại Hoa Kỳ nhận ra ứng dụng của nó trong mạng thần kinh trong luận án tiến sĩ của mình.

  • 1989: Yann LeCun tích hợp thuật toán truyền ngược vào mạng nơ-ron nhân tạo

Yann LeCun đã công bố một bài báo mô tả cách sử dụng ràng buộc trong thuật toán backpropagation và tích hợp nó vào kiến trúc mạng thần kinh để huấn luyện các thuật toán. Nghiên cứu này đã thành công trong việc sử dụng một mạng thần kinh để nhận dạng các chữ số mã bưu điện được viết bằng tay do Cục Bưu điện Hoa Kỳ cung cấp.

Neutral Networks

2. Phân loại Neural Networks

Neural Networks có thể được phân loại thành các loại khác nhau, được sử dụng cho các mục đích khác nhau. Dưới đây là những loại mạng nơ-ron nhân tạo phổ biến nhất mà bạn sẽ gặp phải:

2.1. Perceptron

Perceptron là mạng thần kinh cổ nhất, được Frank Rosenblatt tạo ra vào năm 1958.

2.2. Feedforward Neural Networks (Mạng thần kinh chuyển tiếp)

Mạng nơ-ron chuyển tiếp, hoặc mulit-layers perceptron (MLP) bao gồm một tầng đầu vào, một hoặc nhiều tầng ẩn và một tầng đầu ra. Mặc dù mạng thần kinh này cũng thường được gọi là MLP, điều quan trọng cần lưu ý là thực tế chúng được cấu thành từ các nơ-ron sigmoid, không phải perceptron, vì hầu hết các vấn đề trong thế giới thực là phi tuyến tính. Dữ liệu thường được đưa vào các mô hình này để huấn luyện chúng, và chúng là nền tảng cho thị giác máy tính, xử lý ngôn ngữ tự nhiên và các mạng thần kinh khác.

2.3. Convolutional Neural Networks (Mạng thần kinh tích chập)

Mạng thần kinh tích chập (CNNs) tương tự như mạng thần kinh chuyển tiếp, nhưng thường được sử dụng cho việc nhận dạng hình ảnh, nhận dạng mẫu và/hoặc thị giác máy tính. Các mạng này sử dụng nguyên tắc từ đại số tuyến tính, đặc biệt là phép nhân ma trận, để nhận biết các mẫu trong một hình ảnh.

2.4. Recurrent Neural Networks (Mạng phần kinh hồi quy)

Mạng thần kinh hồi quy (RNN) được nhận dạng thông qua vòng lặp phản hồi của chúng. Các thuật toán học này chủ yếu được sử dụng khi sử dụng dữ liệu chuỗi thời gian để dự đoán kết quả trong tương lai, chẳng hạn như dự đoán thị trường chứng khoán hoặc dự báo doanh số bán hàng.

3. Neural Networks vs Deep Learning

Deep Learning và mạng thần kinh thường được sử dụng thay thế cho nhau trong cuộc trò chuyện, điều này có thể gây nhầm lẫn. Do đó, đáng lưu ý rằng “sâu” trong deep learning chỉ đề cập đến sự sâu của các tầng trong một mạng thần kinh. Một mạng thần kinh gồm hơn ba tầng có thể được coi là một thuật toán deep learning. Một mạng thần kinh chỉ có hai hoặc ba tầng chỉ là một mạng thần kinh cơ bản.

[Giải nén AI] Deep Learning từ A-Z

4. Làm thế nào mạng thần kinh hoạt động?

Kiến trúc mạng thần kinh được lấy cảm hứng từ não bộ con người. Các tế bào não trong não bộ con người, gọi là nơ-ron, tạo thành một mạng lưới phức tạp, liên kết chặt chẽ và gửi các tín hiệu điện cho nhau để giúp con người xử lý thông tin. 

Tương tự, một mạng thần kinh nhân tạo gồm các nơ-ron nhân tạo hoạt động cùng nhau để giải quyết một vấn đề. Nơ-ron nhân tạo là các mô-đun phần mềm, gọi là nút, và các mạng thần kinh nhân tạo là các chương trình phần mềm hoặc thuật toán sử dụng hệ thống máy tính để giải các phép tính toán học.

5. Kiến trúc mạng nơ-ron nhân tạo cơ bản

Một mạng thần kinh cơ bản có các nơ-ron nhân tạo kết nối với nhau trong ba tầng:

  • Tầng Đầu vào

Thông tin từ thế giới bên ngoài nhập vào mạng thần kinh nhân tạo từ tầng đầu vào. Các nút đầu vào xử lý dữ liệu, phân tích hoặc phân loại nó, và chuyển tiếp cho tầng tiếp theo.

  • Tầng Ẩn

Các tầng ẩn nhận dữ liệu từ tầng đầu vào hoặc các tầng ẩn khác. Mạng thần kinh nhân tạo có thể có nhiều tầng ẩn. Mỗi tầng ẩn phân tích đầu ra từ tầng trước, xử lý nó một cách tiếp theo và chuyển tiếp cho tầng tiếp theo.

  • Tầng Đầu ra

Tầng đầu ra cung cấp kết quả cuối cùng của toàn bộ quá trình xử lý dữ liệu bởi mạng thần kinh nhân tạo. Nó có thể có một hoặc nhiều nút. Ví dụ, nếu chúng ta có một vấn đề phân loại nhị phân (có/không), tầng đầu ra sẽ có một nút đầu ra, nơi sẽ cho kết quả là 1 hoặc 0. Tuy nhiên, nếu chúng ta có một vấn đề phân loại đa lớp, tầng đầu ra có thể bao gồm nhiều hơn một nút đầu ra.

6. Kiến trúc mạng thần kinh sâu

Mạng thần kinh sâu, hay mạng học sâu, có nhiều tầng ẩn với hàng triệu nơ-ron nhân tạo được kết nối với nhau. Một số, được gọi là trọng số, đại diện cho các kết nối giữa các nút. Trọng số là một số dương nếu một nút kích thích nút khác hoặc âm nếu một nút ức chế nút khác. Các nút có giá trị trọng số cao có ảnh hưởng nhiều hơn đến các nút khác.

Lý thuyết, mạng thần kinh sâu có thể chuyển đổi bất kỳ loại đầu vào nào sang bất kỳ loại đầu ra nào. Tuy nhiên, chúng cũng cần nhiều quá trình huấn luyện hơn so với các phương pháp học máy khác. Chúng cần hàng triệu ví dụ dữ liệu huấn luyện thay vì chỉ vài trăm hoặc vài nghìn như một mạng đơn giản có thể cần.

7. Neural Networks có quan trọng?

Mạng nơ-ron nhân tạo có thể giúp máy tính ra những quyết định thông minh với sự hỗ trợ hạn chế từ con người. Điều này bởi vì chúng có thể học và mô hình hóa mối quan hệ giữa dữ liệu đầu vào và đầu ra phức tạp. Ví dụ, chúng có thể thực hiện các nhiệm vụ sau đây:

Tổng quát hóa và suy luận

Mạng thần kinh có thể hiểu dữ liệu không cấu trúc và đưa ra nhận định tổng quát mà không cần được huấn luyện cụ thể.

Ví dụ, chúng có thể nhận ra rằng hai câu đầu vào khác nhau có cùng ý nghĩa:

Bạn có thể cho tôi biết cách thực hiện thanh toán không?

Làm thế nào để chuyển tiền?

Một mạng nơ-ron thần kinh nhân tạo sẽ biết rằng cả hai câu có nghĩa tương tự nhau. Hoặc nó có thể nhận ra rộng rãi rằng Baxter Road là một địa điểm, trong khi Baxter Smith là tên của một người.

TelegramCommunity
scroll top
Thông báo
Đóng