Đạo hàm và vi phân trong tối ưu hóa học máy: Cơ sở toán học của Gradient Descent và Backpropagation
Derivatives and differentials in machine learning optimization: the mathematical foundation of gradient descent and backpropagation

Lê Bích Phượng, Nguyễn Tiến Khởi, Khoa Công nghệ thông tin, Trường Đại học Mỏ - Địa chất

Tóm tắt
Trong học máy, tối ưu hóa là quá trình quan trọng để đạt được hiệu suất cao nhất cho các mô hình. Hai công cụ then chốt trong quá trình này là đạo hàm và vi phân, giúp tính toán gradient và điều hướng tối ưu. Bài báo này tập trung vào vai trò của đạo hàm và vi phân trong Gradient Descent và Backpropagation – hai kỹ thuật quan trọng trong tối ưu hóa học máy.


Tài liệu tham khảo:
1. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
2. Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer.
3. Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature.
4. Nguyễn Trường Thanh và Mai Viết thuận (chủ biên) (2019). Giáo trình giải tích 1. Nhà xuất bản Đại học Quốc gia Hà Nội.
5. Nguyễn Đình Trí (chủ biên), Tạ Văn Đĩnh, Nguyễn Hồ Quỳnh (2019). Toán cao cấp (tập 2) Phép tính giải tích một biến số. Nhà xuất bản Giáo dục.
6. Thomas (2009). Calculus. Pearson.
7. Eric Maththes (2015). Python crash course.
8. A Modern Approach (2019). Artificial Intelligence. Pearrson.

  Ý kiến bạn đọc

Tin xem nhiều

Liên kết

thuvien.qui.edu.vn
 
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây