/*! Ads Here */

Kỹ thuật regularization là gì

REGULARIZATION LÀ GÌ

-
2. Validation 3. Regularization 3.3. (l_2) regularization

Overfitting chưa phải là một trong những thuật toán thù vào Machine Learning. Nó là một trong những hiện tượng lạ không muốn thường chạm mặt, tín đồ gây ra mô hình Machine Learning đề xuất cố được những kỹ thuật nhằm tách hiện tượng lạ này.

Bạn đang xem: Regularization là gì

1. Giới thiệu

Đây là một trong những câu chuyện của thiết yếu tôi lúc thứ 1 nghe biết Machine Learning.

Năm trang bị tía đại học, một thầy giáo có giới thiệu với lớp tôi về Neural Networks. Lần thứ nhất nghe thấy quan niệm này, chúng tôi hỏi thầy mục tiêu của chính nó là gì. Thầy nói, về cơ bạn dạng, từ tài liệu đến trước, chúng ta cần tra cứu một hàm số để biến hóa các những điểm nguồn vào thành những điểm cổng đầu ra khớp ứng, ko buộc phải đúng mực, chỉ cần dao động thôi.

Lúc đó, vốn là 1 học viên chăm tân oán, làm việc nhiều với đa thức ngày cấp ba, tôi đã thừa sáng sủa trả lời tức thì rằng Đa thức Nội suy Lagrange hoàn toàn có thể có tác dụng được điều này, miễn sao các điểm nguồn vào không giống nhau đôi một! Thầy bảo rằng phần lớn gì ta biết chỉ nên nhỏ dại xíu đối với các gì ta chưa biết. Và đó là tất cả những gì tôi muốn bước đầu vào nội dung bài viết này.

Nhắc lại một chút về Đa thức nội suy Lagrange: Với (N) cặp điểm tài liệu ((x_1, y_1), (x_2, y_2), dots, (x_N, y_N)) cùng với những (x_i) kháu nhau đôi một, luôn luôn kiếm được một đa thức (P(.)) bậc không thừa thừa (N-1) sao cho (P(x_i) = y_i, ~forall i = 1, 2, dots, N). Chẳng cần điều đó như là cùng với vấn đề ta đi tìm một mô hình cân xứng (fit) với tài liệu vào bài toán Supervised Learning tuyệt sao? Thậm chí điều này còn xuất sắc hơn vì chưng trong Supervised Learning ta chỉ việc xê dịch thôi.

Sự thật là trường hợp một mô hình quá fit cùng với tài liệu thì nó sẽ gây phản bội tác dụng! Hiện tượng quá fit này vào Machine Learning được Gọi là overfitting, là điều cơ mà Lúc xây dừng mô hình, họ luôn nên tránh. Để bao gồm cái nhìn thứ nhất về overfitting, chúng ta cùng coi Hình sau đây. Có 50 điểm tài liệu được tạo nên bởi một nhiều thức bậc cha cộng thêm nhiễu. Tập dữ liệu này được chia làm hai, 30 điểm tài liệu màu đỏ mang đến training data, 20 điểm dữ liệu màu xoàn đến chạy thử data. Đồ thị của nhiều thức bậc tía này được đến do đường màu xanh da trời lục. Bài toán của chúng ta là giả sử ta lưỡng lự quy mô lúc đầu mà lại chỉ biết những điểm tài liệu, hãy tìm kiếm một quy mô tốt để diễn tả tài liệu vẫn mang lại.


*
*
*
*

Với rất nhiều gì chúng ta đã biết trường đoản cú bài Linear Regression, với nhiều loại dữ liệu này, chúng ta cũng có thể áp dụng Polynomial Regression. Bài toán này trọn vẹn có thể được giải quyết và xử lý bởi Linear Regression cùng với dữ liệu không ngừng mở rộng cho 1 cặp điểm ((x, y)) là ((mathbfx, y)) cùng với (mathbfx = <1, x, x^2, x^3, dots, x^d>^T) đến đa thức bậc (d). Điều quan trọng là họ bắt buộc kiếm tìm bậc (d) của đa thức cần kiếm tìm.

Rõ ràng là 1 trong đa thức bậc ko thừa thừa 29 rất có thể fit được trọn vẹn cùng với 30 điểm vào training data. Chúng ta thuộc xét vài quý hiếm (d = 2, 4, 8, 16). Với (d = 2), quy mô ko đích thực xuất sắc vì quy mô dự đoán quá khác đối với mô hình thực. Trong trường đúng theo này, ta nói quy mô bị underfitting. Với (d = 8), với những điểm tài liệu trong vòng của training data, mô hình dự đoán với quy mô thực là hơi giống nhau. Tuy nhiên, về phía yêu cầu, nhiều thức bậc 8 cho công dụng hoàn toàn ngược cùng với xu hướng của dữ liệu. Điều tương tự xẩy ra vào ngôi trường hợp (d = 16). Đa thức bậc 16 này vượt fit tài liệu trong vòng sẽ xét, với thừa fit, tức không được mượt trong khoảng tài liệu training. Việc vượt fit vào trường hợp bậc 16 không tốt bởi vì mô hình đang nỗ lực biểu đạt nhiễu rộng là tài liệu. Hai ngôi trường hợp nhiều thức bậc cao này được Hotline là Overfitting.

Nếu chúng ta như thế nào biết về Đa thức nội suy Lagrange thì hoàn toàn có thể đọc được hiện tượng kỳ lạ không đúng số phệ cùng với các điểm nằm ngoài khoảng của các điểm đã mang lại. Đó đó là lý do phương pháp kia có tự nội suy, cùng với những trường thích hợp ngoại suy, kết quả hay ko đúng đắn.

Với (d = 4), ta được quy mô dự đoán hơi giống với mô hình thực. Hệ số bậc tối đa tìm được cực kỳ gần cùng với 0 (xem kết quả vào source code), do vậy nhiều thưc bậc 4 này tương đối ngay gần cùng với đa thức bậc 3 ban sơ. Đây đó là một mô hình giỏi.

Overfitting là hiện tượng kỳ lạ mô hình kiếm được vượt khớp cùng với dữ liệu training. Việc thừa khớp này có thể dẫn tới sự việc dự đoán nhầm nhiễu, cùng chất lượng mô hình không hề giỏi trên dữ liệu chạy thử nữa. Dữ liệu kiểm tra được trả sử là không biết đến trước, với không được thực hiện nhằm xuất bản những mô hình Machine Learning.

Xem thêm: Sage Là Cây Gì ? Tác Dụng Của Cây Xô Thơm Đối Với Sức Khỏe Cách Trồng Cây Xô Thơm Đơn Giản Tại Nhà

Về cơ bản, overfitting xẩy ra lúc quy mô vượt phức hợp để mô bỏng training data. Vấn đề này quan trọng đặc biệt xảy ra khi lượng tài liệu training quá nhỏ tuổi trong những lúc độ phức hợp của mô hình khá cao. Trong ví dụ bên trên phía trên, độ phức hợp của quy mô có thể được coi là bậc của nhiều thức yêu cầu kiếm tìm. Trong Multi-layer Perceptron, độ phức tạp của mô hình rất có thể được xem như là số lượng hidden layers cùng con số units trong các hidden layers.

Vậy, bao hàm kỹ thuật như thế nào giúp tránh Overfitting?

Trước không còn, chúng ta đề xuất một vài đại lượng nhằm Reviews unique của mô hình trên training data cùng demo data. Dưới đây là nhị đại lượng đơn giản, với mang sử (mathbfy) là cổng output thực thụ (có thể là vector), và (mathbfhaty) là Áp sạc ra dự đân oán bởi vì mô hình:

Train error: Thường là hàm mất mát áp dụng lên training data. Hàm mất mát này cần phải có một quá số (frac1N_ exttrain ) nhằm tính quý hiếm vừa đủ, tức mất mát vừa phải bên trên mỗi điểm dữ liệu. Với Regression, đại lượng này thường xuyên được định nghĩa:< exttrain error= frac1N_ exttrain sum_ exttraining set |mathbfy - mathbfhaty|_p^2>cùng với (p) thường xuyên bởi 1 hoặc 2.

Với Classification, mức độ vừa phải cùng của cross entropy hoàn toàn có thể được sử dụng.

Test error: Tương từ nlỗi bên trên mà lại áp dụng mô hình tìm kiếm được vào demo data. Chụ ý rằng, khi chế tạo quy mô, ta không được áp dụng công bố trong tập tài liệu chạy thử. Dữ liệu thử nghiệm chỉ được dùng để làm Reviews quy mô. Với Regression, đại lượng này hay được định nghĩa:< extkiểm tra error= frac1N_ exttest sum_ extkiểm tra set |mathbfy - mathbfhaty|_p^2>

với (p) y như (p) trong cách tính train error bên trên.

Việc đem vừa đủ là quan trọng đặc biệt vày lượng dữ liệu trong nhì tập hợp training với test rất có thể chênh lệch rất nhiều.

Một quy mô được xem như là tốt (fit) giả dụ cả train error cùng chạy thử error hầu như rẻ. Nếu train error tốt mà lại demo error cao, ta nói quy mô bị overfitting. Nếu train error cao với thử nghiệm error cao, ta nói mô hình bị underfitting. Nếu train error cao nhưng kiểm tra error rẻ, tôi băn khoăn tên của quy mô này, vị cực kỳ may mắn thì hiện tượng lạ này mới xảy ra, hoặc tất cả chỉ lúc tập dữ liệu thử nghiệm vượt nhỏ tuổi.

Chúng ta cùng đi vào phương pháp đầu tiên

2. Validation

2.1. Validation

Chúng ta vẫn quen thuộc cùng với câu hỏi phân chia tập tài liệu ra thành nhị tập nhỏ: training data cùng test data. Và một điều tôi vẫn mong mỏi nhắc lại là lúc xuất bản quy mô, ta không được thực hiện chạy thử data. Vậy làm cho cách nào nhằm hiểu rằng quality của quy mô với unseen data (tức dữ liệu chưa thấy được bao giờ)?

Phương thơm pháp dễ dàng và đơn giản duy nhất là trích trường đoản cú tập training data ra một tập bé nhỏ tuổi với tiến hành bài toán review quy mô trên tập con nhỏ tuổi này. Tập bé nhỏ dại được trích ra từ training set này được Điện thoại tư vấn là validation set. Hiện giờ, training mix là phần sót lại của training phối ban đầu. Train error được tính trên training phối bắt đầu này, cùng gồm một quan niệm nữa được khái niệm tựa như như trên validation error, tức error được xem bên trên tập validation.

Việc này y như khi chúng ta ôn thi. Giả sử chúng ta không biết đề thi ra làm sao dẫu vậy gồm 10 cỗ đề thi trường đoản cú những năm trước. Để xem trình độ của mình trước khi thi gắng nào, gồm một giải pháp là quăng quật riêng một cỗ đề ra, ko ôn tập gì. Việc ôn tập sẽ tiến hành triển khai dựa vào 9 bộ còn sót lại. Sau Khi ôn tập xong xuôi, bạn quăng quật cỗ đề vẫn để riêng ra làm thử cùng đánh giá công dụng, như vậy new khách quan, mới y như thi thật. 10 bộ đề sinh hoạt các năm trước là toàn bộ training phối các bạn bao gồm. Để rời Việc học lệch, học tủ theo chỉ 10 cỗ, chúng ta tách 9 cỗ ra làm cho training set thiệt, cỗ sót lại là validation kiểm tra. lúc có tác dụng như thế thì mới nhận xét được câu hỏi bàn sinh hoạt sẽ giỏi thật tuyệt không, tuyệt chỉ nên học tập tủ. Vì vậy, Overfitting còn rất có thể đối chiếu với Việc Học tủ của con fan.

Với định nghĩa mới này, ta search quy mô sao cho cả train eror và validation error phần đông nhỏ tuổi, qua đó hoàn toàn có thể dự đoán thù được rằng thử nghiệm error cũng bé dại. Phương pháp thường được áp dụng là sử dụng nhiều mô hình không giống nhau. Mô hình làm sao mang lại validation error nhỏ dại duy nhất đang là mô hình tốt.

Thông thường, ta bước đầu tự mô hình đơn giản dễ dàng, sau đó tăng dần đều độ phức tạp của quy mô. Tới bao giờ validation error bao gồm chiều hướng tạo thêm thì chọn mô hình ngay trước kia. Chú ý rằng mô hình càng phức tạp, train error gồm Xu thế càng nhỏ dại đi.

Xem thêm: "Tiền Tăng Ca Tiếng Anh Là Gì ? Nghĩa Của Từ : Overtime

Hính tiếp sau đây biểu lộ ví dụ phía bên trên cùng với bậc của nhiều thức tăng từ 1 mang đến 8. Tập validation bao hàm 10 điểm được kéo ra trường đoản cú tập training thuở đầu.

2. Validation 3. Regularization 3.3. (l_2) regularization

Overfitting chưa phải là một trong những thuật toán thù vào Machine Learning. Nó là một trong những hiện tượng lạ không muốn thường chạm mặt, tín đồ gây ra mô hình Machine Learning đề xuất cố được những kỹ thuật nhằm tách hiện tượng lạ này.

Bạn đang xem: Regularization là gì

1. Giới thiệu

Đây là một trong những câu chuyện của thiết yếu tôi lúc thứ 1 nghe biết Machine Learning.

Năm trang bị tía đại học, một thầy giáo có giới thiệu với lớp tôi về Neural Networks. Lần thứ nhất nghe thấy quan niệm này, chúng tôi hỏi thầy mục tiêu của chính nó là gì. Thầy nói, về cơ bạn dạng, từ tài liệu đến trước, chúng ta cần tra cứu một hàm số để biến hóa các những điểm nguồn vào thành những điểm cổng đầu ra khớp ứng, ko buộc phải đúng mực, chỉ cần dao động thôi.

Lúc đó, vốn là 1 học viên chăm tân oán, làm việc nhiều với đa thức ngày cấp ba, tôi đã thừa sáng sủa trả lời tức thì rằng Đa thức Nội suy Lagrange hoàn toàn có thể có tác dụng được điều này, miễn sao các điểm nguồn vào không giống nhau đôi một! Thầy bảo rằng phần lớn gì ta biết chỉ nên nhỏ dại xíu đối với các gì ta chưa biết. Và đó là tất cả những gì tôi muốn bước đầu vào nội dung bài viết này.

Nhắc lại một chút về Đa thức nội suy Lagrange: Với (N) cặp điểm tài liệu ((x_1, y_1), (x_2, y_2), dots, (x_N, y_N)) cùng với những (x_i) kháu nhau đôi một, luôn luôn kiếm được một đa thức (P(.)) bậc không thừa thừa (N-1) sao cho (P(x_i) = y_i, ~forall i = 1, 2, dots, N). Chẳng cần điều đó như là cùng với vấn đề ta đi tìm một mô hình cân xứng (fit) với tài liệu vào bài toán Supervised Learning tuyệt sao? Thậm chí điều này còn xuất sắc hơn vì chưng trong Supervised Learning ta chỉ việc xê dịch thôi.

Sự thật là trường hợp một mô hình quá fit cùng với tài liệu thì nó sẽ gây phản bội tác dụng! Hiện tượng quá fit này vào Machine Learning được Gọi là overfitting, là điều cơ mà Lúc xây dừng mô hình, họ luôn nên tránh. Để bao gồm cái nhìn thứ nhất về overfitting, chúng ta cùng coi Hình sau đây. Có 50 điểm tài liệu được tạo nên bởi một nhiều thức bậc cha cộng thêm nhiễu. Tập dữ liệu này được chia làm hai, 30 điểm tài liệu màu đỏ mang đến training data, 20 điểm dữ liệu màu xoàn đến chạy thử data. Đồ thị của nhiều thức bậc tía này được đến do đường màu xanh da trời lục. Bài toán của chúng ta là giả sử ta lưỡng lự quy mô lúc đầu mà lại chỉ biết những điểm tài liệu, hãy tìm kiếm một quy mô tốt để diễn tả tài liệu vẫn mang lại.


*
*
*
*

Với rất nhiều gì chúng ta đã biết trường đoản cú bài Linear Regression, với nhiều loại dữ liệu này, chúng ta cũng có thể áp dụng Polynomial Regression. Bài toán này trọn vẹn có thể được giải quyết và xử lý bởi Linear Regression cùng với dữ liệu không ngừng mở rộng cho 1 cặp điểm ((x, y)) là ((mathbfx, y)) cùng với (mathbfx = <1, x, x^2, x^3, dots, x^d>^T) đến đa thức bậc (d). Điều quan trọng là họ bắt buộc kiếm tìm bậc (d) của đa thức cần kiếm tìm.

Rõ ràng là 1 trong đa thức bậc ko thừa thừa 29 rất có thể fit được trọn vẹn cùng với 30 điểm vào training data. Chúng ta thuộc xét vài quý hiếm (d = 2, 4, 8, 16). Với (d = 2), quy mô ko đích thực xuất sắc vì quy mô dự đoán quá khác đối với mô hình thực. Trong trường đúng theo này, ta nói quy mô bị underfitting. Với (d = 8), với những điểm tài liệu trong vòng của training data, mô hình dự đoán với quy mô thực là hơi giống nhau. Tuy nhiên, về phía yêu cầu, nhiều thức bậc 8 cho công dụng hoàn toàn ngược cùng với xu hướng của dữ liệu. Điều tương tự xẩy ra vào ngôi trường hợp (d = 16). Đa thức bậc 16 này vượt fit tài liệu trong vòng sẽ xét, với thừa fit, tức không được mượt trong khoảng tài liệu training. Việc vượt fit vào trường hợp bậc 16 không tốt bởi vì mô hình đang nỗ lực biểu đạt nhiễu rộng là tài liệu. Hai ngôi trường hợp nhiều thức bậc cao này được Hotline là Overfitting.

Nếu chúng ta như thế nào biết về Đa thức nội suy Lagrange thì hoàn toàn có thể đọc được hiện tượng kỳ lạ không đúng số phệ cùng với các điểm nằm ngoài khoảng của các điểm đã mang lại. Đó đó là lý do phương pháp kia có tự nội suy, cùng với những trường thích hợp ngoại suy, kết quả hay ko đúng đắn.

Với (d = 4), ta được quy mô dự đoán hơi giống với mô hình thực. Hệ số bậc tối đa tìm được cực kỳ gần cùng với 0 (xem kết quả vào source code), do vậy nhiều thưc bậc 4 này tương đối ngay gần cùng với đa thức bậc 3 ban sơ. Đây đó là một mô hình giỏi.

Overfitting là hiện tượng kỳ lạ mô hình kiếm được vượt khớp cùng với dữ liệu training. Việc thừa khớp này có thể dẫn tới sự việc dự đoán nhầm nhiễu, cùng chất lượng mô hình không hề giỏi trên dữ liệu chạy thử nữa. Dữ liệu kiểm tra được trả sử là không biết đến trước, với không được thực hiện nhằm xuất bản những mô hình Machine Learning.

Xem thêm: Sage Là Cây Gì ? Tác Dụng Của Cây Xô Thơm Đối Với Sức Khỏe Cách Trồng Cây Xô Thơm Đơn Giản Tại Nhà

Về cơ bản, overfitting xẩy ra lúc quy mô vượt phức hợp để mô bỏng training data. Vấn đề này quan trọng đặc biệt xảy ra khi lượng tài liệu training quá nhỏ tuổi trong những lúc độ phức hợp của mô hình khá cao. Trong ví dụ bên trên phía trên, độ phức hợp của quy mô có thể được coi là bậc của nhiều thức yêu cầu kiếm tìm. Trong Multi-layer Perceptron, độ phức tạp của mô hình rất có thể được xem như là số lượng hidden layers cùng con số units trong các hidden layers.

Vậy, bao hàm kỹ thuật như thế nào giúp tránh Overfitting?

Trước không còn, chúng ta đề xuất một vài đại lượng nhằm Reviews unique của mô hình trên training data cùng demo data. Dưới đây là nhị đại lượng đơn giản, với mang sử (mathbfy) là cổng output thực thụ (có thể là vector), và (mathbfhaty) là Áp sạc ra dự đân oán bởi vì mô hình:

Train error: Thường là hàm mất mát áp dụng lên training data. Hàm mất mát này cần phải có một quá số (frac1N_ exttrain ) nhằm tính quý hiếm vừa đủ, tức mất mát vừa phải bên trên mỗi điểm dữ liệu. Với Regression, đại lượng này thường xuyên được định nghĩa:< exttrain error= frac1N_ exttrain sum_ exttraining set |mathbfy - mathbfhaty|_p^2>cùng với (p) thường xuyên bởi 1 hoặc 2.

Với Classification, mức độ vừa phải cùng của cross entropy hoàn toàn có thể được sử dụng.

Test error: Tương từ nlỗi bên trên mà lại áp dụng mô hình tìm kiếm được vào demo data. Chụ ý rằng, khi chế tạo quy mô, ta không được áp dụng công bố trong tập tài liệu chạy thử. Dữ liệu thử nghiệm chỉ được dùng để làm Reviews quy mô. Với Regression, đại lượng này hay được định nghĩa:< extkiểm tra error= frac1N_ exttest sum_ extkiểm tra set |mathbfy - mathbfhaty|_p^2>

với (p) y như (p) trong cách tính train error bên trên.

Việc đem vừa đủ là quan trọng đặc biệt vày lượng dữ liệu trong nhì tập hợp training với test rất có thể chênh lệch rất nhiều.

Một quy mô được xem như là tốt (fit) giả dụ cả train error cùng chạy thử error hầu như rẻ. Nếu train error tốt mà lại demo error cao, ta nói quy mô bị overfitting. Nếu train error cao với thử nghiệm error cao, ta nói mô hình bị underfitting. Nếu train error cao nhưng kiểm tra error rẻ, tôi băn khoăn tên của quy mô này, vị cực kỳ may mắn thì hiện tượng lạ này mới xảy ra, hoặc tất cả chỉ lúc tập dữ liệu thử nghiệm vượt nhỏ tuổi.

Chúng ta cùng đi vào phương pháp đầu tiên

2. Validation

2.1. Validation

Chúng ta vẫn quen thuộc cùng với câu hỏi phân chia tập tài liệu ra thành nhị tập nhỏ: training data cùng test data. Và một điều tôi vẫn mong mỏi nhắc lại là lúc xuất bản quy mô, ta không được thực hiện chạy thử data. Vậy làm cho cách nào nhằm hiểu rằng quality của quy mô với unseen data (tức dữ liệu chưa thấy được bao giờ)?

Phương thơm pháp dễ dàng và đơn giản duy nhất là trích trường đoản cú tập training data ra một tập bé nhỏ tuổi với tiến hành bài toán review quy mô trên tập con nhỏ tuổi này. Tập bé nhỏ dại được trích ra từ training set này được Điện thoại tư vấn là validation set. Hiện giờ, training mix là phần sót lại của training phối ban đầu. Train error được tính trên training phối bắt đầu này, cùng gồm một quan niệm nữa được khái niệm tựa như như trên validation error, tức error được xem bên trên tập validation.

Việc này y như khi chúng ta ôn thi. Giả sử chúng ta không biết đề thi ra làm sao dẫu vậy gồm 10 cỗ đề thi trường đoản cú những năm trước. Để xem trình độ của mình trước khi thi gắng nào, gồm một giải pháp là quăng quật riêng một cỗ đề ra, ko ôn tập gì. Việc ôn tập sẽ tiến hành triển khai dựa vào 9 bộ còn sót lại. Sau Khi ôn tập xong xuôi, bạn quăng quật cỗ đề vẫn để riêng ra làm thử cùng đánh giá công dụng, như vậy new khách quan, mới y như thi thật. 10 bộ đề sinh hoạt các năm trước là toàn bộ training phối các bạn bao gồm. Để rời Việc học lệch, học tủ theo chỉ 10 cỗ, chúng ta tách 9 cỗ ra làm cho training set thiệt, cỗ sót lại là validation kiểm tra. lúc có tác dụng như thế thì mới nhận xét được câu hỏi bàn sinh hoạt sẽ giỏi thật tuyệt không, tuyệt chỉ nên học tập tủ. Vì vậy, Overfitting còn rất có thể đối chiếu với Việc Học tủ của con fan.

Với định nghĩa mới này, ta search quy mô sao cho cả train eror và validation error phần đông nhỏ tuổi, qua đó hoàn toàn có thể dự đoán thù được rằng thử nghiệm error cũng bé dại. Phương pháp thường được áp dụng là sử dụng nhiều mô hình không giống nhau. Mô hình làm sao mang lại validation error nhỏ dại duy nhất đang là mô hình tốt.

Thông thường, ta bước đầu tự mô hình đơn giản dễ dàng, sau đó tăng dần đều độ phức tạp của quy mô. Tới bao giờ validation error bao gồm chiều hướng tạo thêm thì chọn mô hình ngay trước kia. Chú ý rằng mô hình càng phức tạp, train error gồm Xu thế càng nhỏ dại đi.

Xem thêm: "Tiền Tăng Ca Tiếng Anh Là Gì ? Nghĩa Của Từ : Overtime

Hính tiếp sau đây biểu lộ ví dụ phía bên trên cùng với bậc của nhiều thức tăng từ 1 mang đến 8. Tập validation bao hàm 10 điểm được kéo ra trường đoản cú tập training thuở đầu.

Video liên quan

*

Đăng nhận xét (0)
Mới hơn Cũ hơn

Responsive Ad

/*! Ads Here */

Billboard Ad

/*! Ads Here */