Linear regression là gì

     

xin chào mừng các bạn đọc đã quay trở lại với chuỗi nội dung bài viết về Machine Learning của clb AI. Ở bài viết trước, bọn họ đã được mày mò và tiếp cận một cách tổng thể về Machine Learning với bố nhóm bài bác toán chính là Regression, Classification với Clustering. Để giúp bạn đọc làm rõ hơn Machine Learning ở góc độ toán học, ở bài viết này họ sẽ cùng khám phá về một thuật toán dễ dàng và đơn giản trong việc RegressionLinear Regression (Hồi quy con đường tính). Thông qua bài viết này, các bạn sẽ có thể áp dụng kỹ năng và kiến thức để tạo ra một mô hình máy học để tham dự đoán điểm vào cuối kỳ Nhập môn Lập trình, và sẽ được “nghịch” cùng với nó để xem phong thái “học” của sản phẩm là như vậy nào.

1.

Bạn đang xem: Linear regression là gì

Linear Regression là gì?

Linear Regression (Hồi quy tuyến đường tính) là một trong những thuật toán cơ phiên bản và phổ biến nhất của Supervised Learning (Học gồm giám sát), trong các số đó đầu ra dự đoán là liên tục. Thuật toán này ưng ý hợp để tham dự đoán các giá trị đầu ra output là các đại lượng thường xuyên như doanh số hay giá chỉ cả cầm vì nỗ lực phân một số loại chúng thành các đại lượng rời rạc như màu sắc và làm từ chất liệu của quần áo, tốt xác định đối tượng người tiêu dùng trong một bức ảnh là mèo tuyệt chó, …


*

Thử đem ví dụ sau: bạn đang sẵn có điểm nguyên tố về những môn như Nhập môn lập trình, OOP, Giải tích,… với điều bạn đang cần là tính ra điểm trung bình cuối kỳ của mình. Rất đối chọi giản, bạn sẽ tính được chứ? tất yếu rồi! Bạn chỉ cần áp cách làm tính điểm vừa phải vào là ra. Tiếp tục, các bạn lại ý muốn khảo sát, thống kê lại lại xem điểm thi thời điểm giữa kỳ Nhập môn lập trình tác động như cầm cố nào cho điểm cuối kỳ của các bạn trong lớp, bạn muốn xác định xem quan hệ giới tính giữa điểm thành phần cùng điểm cuối kỳ thì nên làm sao? Đây chắc rằng là một câu hỏi khó so với những chúng ta chưa từng thao tác làm việc với thiết bị học hoặc Thống kê, mặc dù cũng chớ vội lo lắng, hãy cùng nhau tò mò và giải quyết các vướng mắc trong bài viết này nhé!

Trong Linear Regression bọn họ sẽ gặp hai loại câu hỏi đó là Hồi quy đối kháng biến cùng Hồi quy nhiều biến. Để đơn giản dễ dàng thuật toán, chúng ra sẽ khám phá và phân tích kỹ toán học tập của bài bác hồi quy solo biến. Vậy hồi quy tuyến đường tính solo biến là gì? Univariate Linear Regression (hồi quy tuyến tính đối kháng biến) đó là mối tình dục giữa hai biến hóa số liên tục trên trục hoành (x) cùng trên trục tung (y). Phương trình hồi quy con đường tính đối chọi biến có dạng như phương trình mặt đường thẳng ( y = ax + b ) với (x) là biến hòa bình và (y) là biến nhờ vào vào (x). Đối với Hồi quy con đường tính nhiều biến, chúng ta có thể hiểu một cách dễ dàng là sẽ có rất nhiều biến tự do (x_1, x_2, dots, x_n) với nhiều thông số (a_1, a_2, dots, a_n) thay bởi vì chỉ một biến chuyển (x) duy nhất.

2. Một vài ký kết hiệu cần xem xét và cách khẳng định input và output của bài toán.

Tổng quát tháo hơn, trong supervised learning (học gồm giám sát), chúng ta có một bộ dữ liệu và bộ tài liệu này gọi là training mix (tập huấn luyện).

Giả sử chúng ta có bộ tài liệu thống kê điểm thời điểm giữa kỳ và điểm cuối kỳ trong Nhập môn lập trình. Lúc đó, với bài toán hồi quy đối kháng biến này, cần tìm ra một quy mô nhận vào input là vấn đề giữa kỳ cùng output ra dự đoán điểm cuối kỳ hợp lí nhất dựa vào mối dục tình giữa hai cột điểm mà mô hình đó tra cứu được.


Để dễ dàng dàng, ta sẽ thống nhất áp dụng một vài cam kết hiệu sau xuyên suốt nội dung bài viết này:

(m): Đại diện con số các training example (mẫu huấn luyện). Mang sử, họ có 40 loại điểm cuối kỳ khác nhau được thu thập dựa trên điểm giữa kỳ tương ứng. Như vậy, ta gồm 40 mẫu huấn luyện và đào tạo và m bởi 40.(x): Để cam kết hiệu các input variable (biến đầu vào) cũng thường xuyên được hotline là các feature (đặc trưng). Vào hồi quy đa biến, (x) là một trong những vector tuy thế trong lấy ví dụ này, (x) là số điểm reviews trong nửa học tập kỳ đầu – là một con số vào hồi quy 1-1 biến.(y): Để ký hiệu các biến cổng output hay các biến mục tiêu , ở đó là điểm vào cuối kỳ tương ứng.((x,y)): đại diện thay mặt một mẫu huấn luyện – training example.(x^(i), y^(i)): dùng để làm chỉ một mẫu giảng dạy cụ thể. Giả sử, với (i = 3) tương xứng ta gồm điểm dữ liệu (x^(3), y^(3)) : Số điểm thời điểm cuối kỳ của bạn có thể là từng nào khi điểm vào giữa kỳ là 8.75? phụ thuộc vào bảng số liệu trên, tại (y^(3)), công dụng dự đoán đạt quý hiếm là 7.8.

Chúng ta sẽ học phương trình mặt đường thẳng (y = ax + b) nghỉ ngơi bậc trung học càng nhiều và hàm h – hypothesis (giả thuyết) cũng được biểu diễn giống như cho mô hình hồi quy con đường tính 1-1 biến. Nó cũng biến thành lấy giá bán trị đầu vào là x và cho ra hiệu quả đầu ra là y tuy thế chỉ chuyển đổi các thông số kỹ thuật a và b thành ( heta_0 = b) với ( heta_1 = a).

Khi đó về phương diện toán học, (h) là một trong ánh xạ từ bỏ (x) thanh lịch (y):


y = h(x) = h_ heta (x) = b + ax = heta_0 + heta_1 x

3. Bài toán dự kiến điểm vừa đủ Nhập môn lập trình


*
Nguồn ảnh: NakedCode

Bây giờ, họ hãy đi sâu rộng về việc giải quyết và xử lý các sự việc hồi quy 1-1 biến. Quan sát vào những training example (mẫu huấn luyện) được chỉ dẫn trong hình dưới đây.

Xem thêm: Ngôi Sao Cô Đơn Cẩm Vân On Amazon Music, Ngôi Sao Cô Đơn


*
Hình 1

Vậy điều gì đã xảy ra khi chúng ta cần mong lượng số điểm đúng mực nhất khi đạt 7.00 điểm thời điểm giữa kỳ từ thông tin trên? phía tiếp cận đơn giản và dễ dàng nhất là tìm một đường thẳng (*) phù hợp với tập tài liệu và vẽ một con đường thẳng từ vị trí 7 điểm bên trên trục x cho đến khi nó chạm vào đường thẳng(*) vừa tìm?


*
Hình 2

Hãy quan gần kề hình bên trên , tự hai mẫu (4.00, 3.98) cùng (6.00, 5.5), ta vẽ được đường thẳng red color và từ đó kiếm được hai quý hiếm ( heta_0) với ( heta_1) lần lượt là 0.76 0.94 . Bây giờ, bạn có thể sử dụng hàm mang thuyết để tham gia đoán điểm thời điểm cuối kỳ dựa trên điểm thời điểm giữa kỳ tương ứng với giá trị 7.00 như sau: (h(x) = 0.76x + 0.94 = 0.76*7 +0.94 = 6.26) điểm – giá trị cầu tính tương xứng với mặt đường thẳng này.

Tuy nhiên, trong thực tế các bộ tài liệu đưa vào huấn luyện quy mô nhiều hơn vội vàng trăm, cấp ngàn lần và số lượng các đặc thù cũng chênh lệch xứng đáng kể, việc xác minh hàm con đường tính trở nên khó khăn hơn. Sự xuất hiện thêm của các vấn đề bên trên là chi phí đề nhằm máy học ra đời, tạo ra nhiều thuật toán giao hàng cho mọi fan như vận dụng thuật toán hồi quy con đường tính với SVM (Support Vector Machine) trong phân tích đầu tư và chứng khoán hay dấn dạng các giọng nói bằng quy mô Markov, …

Hàm giả thuyết ngơi nghỉ trên được xây dựng xuất sắc hay chưa? làm sao để hàm kia trở nên phù hợp nhất gồm thể? Làm gắng nào bạn nhận định và đánh giá được điều đó? Nhờ đó hàm mất mát được chế tạo ra ra, hàm sẽ giúp bạn tính khoảng cách giữa tác dụng mà hàm trả thuyết h dự đoán được so với mức giá trị thực sự nhưng mà ta quan gần cạnh thấy.

*
Hình 3: xây dựng hàm mất đuối

Khi bạn có mức giá trị dự đoán là 6.26 và cực hiếm thực là 6.00 chúng có chân thành và ý nghĩa gì? Hàm mất đuối sẽ cho chính mình biết sự chênh lệch giữa thực tế và mang thuyết với khi giá trị hàm này càng nhỏ, dự đoán của bạn lại càng đúng đắn và càng phù hợp! các bạn có mong muốn hàm mất mát đưa ra giá trị nhỏ tuổi nhất không? Đối với hồi quy tuyến đường tính, bạn có thể tính bình phương độ xô lệch để nhận xét sự chênh lệch giữa giá bán trị đưa ra bởi vì hàm trả thuyết với giá trị thực tế đo đạc được:


mathcalL( heta_0 , heta_1) = frac12m * sum_i=1^m ^2 \= frac12m * sum_i=1^m ^2

Dưới đây là demo code của hàm mất mát của câu hỏi tính điểm cuối kỳ:

def loss_univariate(X, y, theta_0, theta_1): h = theta_0 + theta_1 * X m = len(X) loss = 1/(2*m) * np.sum((y - h) ** 2) return lossTừ quy mô dữ liệu hình 1, ta thu được hàm giả thuyết từ điểm thời điểm giữa kỳ sang điểm cuối kỳ :


mathcalL = frac12m * <(y^(1) – x^(1) heta_1 – heta_0)^2 + … + (y^(m) – x^(m) heta_1 – heta_0)^2>

Mục tiêu của chúng ta là buổi tối ưu hay có cách gọi khác là đi kiếm tìm điểm rất tiểu của hàm (mathcalL) bên trên. Vì đấy là một hàm số hai phát triển thành nên trước lúc muốn tìm cực tiểu thì chúng ta cùng ôn tập lại kỹ năng và kiến thức của môn giải tích hồi năm tuyệt nhất nhé ;). Để tìm cực trị của một hàm số 2 biến (f(x, y)), ta giải hệ phương trình đạo hàm một phía sau:


*
Hình 3: Đồ thị hàm mất mát

Mặc dù thời điểm trước, lúc học môn giải tích, để xác minh xem nghiệm của hệ phương trình này là vấn đề cực tiểu, cực đại hay điểm yên ngựa chiến (điểm không phải cực đái cũng không hẳn cực đại) của hàm (f(x, y)), bọn họ còn bắt buộc tính ( f’_xx(x, y), f’_yy(x, y), ) với (f’_xy(x, y)) và biện luận từng nghiệm, tuy vậy vì hàm (mathcalL) ở đấy là hàm số bậc 2, tức là nó có những thiết kế như một parabol với một điểm cực tiểu duy nhất (Hình 3) buộc phải nghiệm của hệ phương trình đạo hàm cũng chính là điểm rất tiểu của hàm số (mathcalL). Tiếp thu kỹ năng kỳ tai ác này, ta vận dụng vào việc tìm kiếm cực tiểu của hàm mất đuối như sau:


mathcalL’_ heta_0 = frac1m*<(y^(1) – x^(1) heta_1 – heta_0)(-1) + … + (y^(m) – x^(m) heta_1 – heta_0)*(-1)> = 0
Leftrightarrow heta_0 + heta_1 * frac(x^(1) + … + x^(m))m = frac(y^(1) + … + y^(m))m
mathcalL_ heta_1 = frac1m<(y^(1) – x^(1) heta_1 – heta_0)(-x^(1)) + … + (y^(m) – x^(m) heta_1 – heta_0)(-x^(m))> = 0
Leftrightarrow heta_0 * frac(x^(1) + … + x^(m))m + heta_1 * frac((x^(1))^2 + … + (x^(m))^2)m = frac(y^(1)x^(1) + … + y^(m)x^(m))m
Leftrightarrow egincases heta_0 = frac(y^(1) + … + y^(m)) – heta_1(x^(1) + … + x^(m))m\ heta_1 = fracm(y^(1)x^(1) + … + y^(m)x^(m)) – (y^(1) + … + y^(m))(x^(1) + … + x^(m))m((x^(1))^2 + … + (x^(m))^2) – (x^(1) + … + x^(m))^2 endcases

Chúng ta sẽ giám sát các quý hiếm trong phương trình thông qua thư viện thường dùng trong Machine Learning là Numpy, bước quan trọng đặc biệt nhất trong mô hình Linear Regression là đi tìm kiếm nghiệm cho bài bác toán. Họ giải hệ phương trình của bài toán đối chọi biến như sau:

# Tính điểm thời điểm cuối kỳ theo thetay_pred = theta_0 + theta_1*x1# trình diễn trên vật thịplt.scatter(x1,x2)plt.plot(x1,y_pred.T, "r")

*
Hình 2
loss_univariate(X, y, theta_0, theta_1)0.27319262900804736 Từ trang bị thị trên, ta thấy những điểm dữ liệu blue color khá gần với con đường thẳng red color vậy mô hình hồi quy đường tính này vận động tốt cùng với tập tài liệu đã cho. Bây giờ, bọn họ kiểm tra lại công dụng hai giá trị θ0θ1 khi được tính bằng tủ sách Scikit-Learn của Python:

Nhược điểm của phương thức này là gì? Khi mẫu mã số của phương trình ( heta_1) sống trên bởi không thì sao? lúc ấy, hệ phương trình trong hồi quy tuyến đường tính có kết trái vô nghiệm cần ta không thể tìm kiếm ra cỗ trọng số lý tưởng nữa và điều bọn họ cần làm là đưa ra một giải mã đủ tốt, đề nghị một thuật toán để tìm giá trị nhỏ tuổi nhất của hàm mất non (mathcalL). Chúng ta sẽ trở về để nhắc thêm về sự việc này vào phần tiếp theo nhé!

4. Sử dụng thuật toán hồi quy tuyến tính nhằm giải việc tính giá nhà.


Với mô hình hồi quy tuyến đường tính đa biến, gắng vì đi kiếm một đường thẳng (y=ax+b) khớp với đầy đủ điểm đã cho thì họ đi tìm một mặt phẳng/siêu phương diện phẳng (plane/hyperplane) trong không gian (n) chiều có dạng:


heta = eginbmatrix heta_0 \<0.3em> heta_1 \<0.3em> vdots \<0.3em> heta_n endbmatrix

một vector mặt hàng chứa các dữ liệu nguồn vào mở rộngsố 1 được chế tạo để dễ dàng và đơn giản hóa và dễ dãi cho tính toán. Với tương tự, trong quy mô đa biến chuyển này, ta cũng hoàn toàn có thể dựng buộc phải hàm mất mát mang đến siêu khía cạnh phẳng trên:


mathcalL = frac12m * left vdots \<0.3em> heta_n endbmatrix ight)^2 + … + left(y^(m) – eginbmatrix 1 và x_0^(m) & cdots & x_n^(m) endbmatrixeginbmatrix heta_0 \<0.3em> vdots \<0.3em> heta_n endbmatrix ight)^2 ight>

Các các bạn dễ minh chứng được rằng, đó là công thức tổng thể cho nghiệm của hệ phương trình bên trên với con số biến θ tùy ý:


Bài toán giá nhà là trong những ví dụ nổi bật của thuật toán hồi quy đa biến chuyển này, với 1 bộ tài liệu gồm 11 đặc trưng như số lượng phòng tắm, diện tích s trong nhà hay cảnh sắc xung quanh, … bạn sẽ tính θ như vậy nào? làm cho sao vận dụng thuật toán này vào trong bài toán? Với nhị bộ tài liệu gồm data_train cùng data_test, giờ họ tiến hành train bằng phương thức nhân ma trận nào:

# bước 1: Tính X^T . XXtX = X.T
Xtytheta = theta<:, 0># Tính định thức của X^T . Xprint(np.linalg.det(XtX)) -4.6635911969955336e-71 Để ý rằng (-4.66*10^-71), một con số cực kỳ bé dại và ngay sát với 0! Ở cách hai này, bọn họ không thể tính được nghịch đảo (X^TX) một cách đúng mực do tất cả sai số.

Liệu chúng ta đã đi đúng phía chưa? Làm vắt nào các bạn xác định được điều đó? Hãy xem sự khác biệt khi sử dụng thư viện Scikit-Learn nào:


def loss_multivariate(X, y, theta): theta = theta.reshape(-1, 1) m = len(X) # Tính hàm đưa thuyết h = X
theta loss = 1/(2*m) * np.sum((y - h) ** 2) return lossVà kết quả chúng ta thu được khi đối chiếu hàm non mát thân hai phương pháp là:


Lời giải của chúng ta tính được vẫn chưa tốt bằng giải mã mà tủ sách đã đưa ra, vì sẽ có trường hòa hợp định thức của (X^TX) xấp xỉ 0, đồng nghĩa với câu hỏi phương trình đạo hàm vô nghiệm. Vậy họ cần gồm một thuật toán tác dụng và hoàn toàn có thể dễ dàng tính được nghiệm cho việc này, đó đó là Gradient Descent.

*Trong Đại số đường tính tất cả một khái niệm gọi là giả nghịch đảo để tìm nghịch hòn đảo của ma trận lúc định thức của nó bởi không, tuy vậy đó là một phần khó và sẽ được đề cập thêm ở 1 bài khác.

5. Gradient Descent là gì?


Trong các bài viết trước, họ đã được học cách sử dụng Gradient Descent để buổi tối ưu (tìm điểm rất tiểu) một hàm số bất kỳ, vậy hoàn toàn có thể áp dụng ý tưởng của Gradient Descent nhằm tìm ra bộ trọng số ưng ý nhất mang lại hàm mất mát sinh hoạt trên không?

với thuật toán Gradient Descent, ví như lỗi khá cao thì thuật toán cần update các tham số có mức giá trị mới trong


và lúc lỗi vẫn liên tục cao vào trường đúng theo tiếp theo, nó vẫn tiếp tục update các tham số với cái giá trị mới lần nữa. Quy trình này được lặp đi lặp lại đến khi hàm mất non được bớt thiểu.

def gradient_descent(alpha, n): X = <4, 6, 8.75, ... , 5.7> y = <3.9, 5.5, 7.8, ... , 4.9> m = len(X) theta_0 = 0 theta_1 = 0 for _ in range (n): d_theta_0 = <> d_theta_1 = <> for i in range (m): d_theta_0.append((theta_0 +theta_1*X) - y) d_theta_1.append(((theta_0 + theta_1*X) - y) * X) theta_0 = theta_0 - alpha*(1/m)*sum(d_theta_0) theta_1 = theta_1 - alpha *(1/m)*sum(d_theta_1) return theta_0, theta_1Tóm lại, vào Gradient Descent, chúng ta hướng về vùng cực tiểu, Gradient Descent sẽ tự động hóa bước công việc ngày càng nhỏ bởi vì chúng ta đang hướng về khu vực tối ưu hóa với định nghĩa, rất tiểu là chỗ đạo hàm bởi 0. Như vậy, khi chúng ta hướng về vùng cực tiểu, đạo hàm của hàm này sẽ tự động nhỏ lại cùng thuật toán sẽ dần hội tụ.

Xem thêm: Bài 1: Một Số Hệ Thức Về Cạnh Và Đường Cao Trong Tam Giác Vuông

Dưới đấy là code nhằm minh họa mang đến thuật toán:

def dL(X, y, theta): theta = theta.reshape(-1, 1) m = len(X) return -(1/m) * np.sum(X * (y - X
theta), axis=0)def gradient_descent(): m, n = X.shape # Khởi tạo theta thiên nhiên theta = np.random.randn(n) # Chọn những tham số như chu kỳ lặp và thông số alpha iterations = 1000001 alpha = 0.5 for i in range(iterations): # cập nhật theta theo bí quyết của GD theta = theta - alpha * dL(X, y, theta) # Tính hàm mất mát loss = loss_multivariate(X, y, theta) if i % 20000 == 0: # Xuất cực hiếm mất đuối ra để theo dõi print("Iter . Loss = ".format(i, loss)) return thetaKết quả đối chiếu hàm mất mát thân hai phương pháp:


Tuy nhiên, cũng biến thành có ngôi trường hợp cơ mà Gradient Descent lại cho ra kết quả tốt hơn trên tập test, hãy xem ví dụ như sau:

# chọn 1 điểm tài liệu trong tập dữ liệu test với dự đoáni = 1x_1 = Xy_1 = y<0>hypothesis = x_1
theta_gdprint("Dữ liệu của căn nhà cần dự đoán: ", x_1)print()print("Dự đoán của phương pháp đầu tiên: :.3f (triệu USD)".format(hypothesis))print("Dự đoán của thư viện sklearn: :.3f (triệu USD)".format(hypothesis_sklearn))print("Dự đoán của gradient descent: :.3f (triệu USD)".format(hypothesis_gd))print("Giá trị thực tế: :.3f (triệu USD)".format(y_1))Dữ liệu của tòa nhà cần dự đoán: <1.000e+00 3.000e-06 2.250e-06 2.000e-06 0.000e+00 3.000e-06 7.000e-06 1.951e-03 2.570e-03 7.242e-03 2.170e-03 4.000e-04> dự kiến của phương pháp đầu tiên: 0.709 (triệu USD) dự đoán của tủ sách sklearn: 0.632 (triệu USD) dự đoán của gradient descent: 0.602 (triệu USD) cực hiếm thực tế: 0.538 (triệu USD) Vậy là chúng ta đã chấm dứt phần lí thuyết cũng giống như hiện thực ý tưởng phát minh của Linear Regression trải qua Python và những thư viện. Để đọc thêm code minh họa mang đến thuật toán này, các bạn cũng có thể tham khảo Colab Notebook nhưng mình đã sẵn sàng ở đây nhé!

6. Ứng dụng của Linear Regression trong thực tế

Dựa vào thuật toán này, chúng ta có thể sử dụng nhằm giải các bài toán liên quan đến việc dự kiến mức lương trung bình sau khoản thời gian ra trường phụ thuộc vào các đối số đầu vào là giới tính, điểm trung bình khóa huấn luyện và số lượng các vận động ngoại khóa vẫn tham gia ,…


Hay trong các bài toán trả về giá trị nhiệt độ phòng với cái giá trị nguồn vào là ngày, ánh sáng ngoài trời và tia nắng trong phòng, …


Cụ thể hơn và thân cận với người dùng nhất, Facebook cũng áp dụng thuật toán này nhằm dự đoán số lượng người nói qua và bình luận dựa vào những liên hệ trong bài viết trước đó của người sử dụng hay số lượng bằng hữu trên facebook, …


7. Tổng kết.

Như vậy, qua nội dung bài viết này, họ đã mày mò về thuật toán Linear Regression, các khái niệm cơ phiên bản cũng như cách ứng dụng nó vào trong những bài toán dự đoán điểm Nhập môn lập trình và dự kiến giá nhà! ao ước là các bạn đã nắm rõ được lí thuyết và phương pháp hiện thực ý tưởng phát minh của Linear Regression.

Tuy nhiên, đây mới chỉ là thử nghiệm trên tài liệu ta đã quan liền kề được, và công dụng chưa thể bội phản ánh chính xác mức độ hiệu quả của quy mô Linear Regression khi áp dụng vào việc dự đoán điểm nhập môn thiết kế hay dự kiến giá nhà ngoài thực tế. Ở các nội dung bài viết sau của clb thì các bạn sẽ được trình làng thêm những phương thức để reviews một quy mô khi đưa vào đời sống. Hãy đón bài viết liên quan các bài viết tiếp theo của bọn chúng mình nhé!

7. Tư liệu tham khảo

Uyên Đặng – HTTT2019

kadikoy xe máy kurye umraniye xe máy kurye tuzla xe máy kurye atasehir moto kurye moto kurye moto kurye moto kurye xe máy kurye


Posted Under
Data Science Machine Learning Mathematics Optimization
Tagged
dự đoán giá nhà hồi quy đa đổi mới hồi quy đơn biến hồi quy tuyến tính linear regression Machine Learning mathematics maths sản phẩm học nhập môn lập trình

Post navigation


những khái niệm cơ bản trong ngôn ngữ lập trình Python
Logistic Regression và câu hỏi phân loại cảm xúc âm nhạc

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *


Chuyên mục: Tài chính