Machine Learning Coursera
Machine Learning Coursera
bai toan phan loai: muc tieu la de du doan gia tri dau ra roi rac ( co the hieu
dau ra la cac gia tri 0 va 1 ( neu co them gd1,gd2.. Thi cho them 2,3..)
dung Regression de xu ly du lieu tren do:
>> hoac co the hieu phan loai la bai toan : dua ra : "RIGHT ANSWER". Nhung
ket qua tra ve co la nhieu loai xac dinh. Vd: chan doan xem benh nha nay co
phai mac ung thu khong, neu mac thi gd1,gd2mgd3..
Du lieu dau vao biet duoc la loai du lieu nao, co the phan biet duoic , tu do dau
ra cung nhan bie truoc luon
Unsupervised Learning
du lieu ban dau dua vao co nhan giong nhau hoac la khong co nhan luon..
Nguoi dua data vao cung khong cho biet do la loai data nao ... Va dau ra du lieu
cung la ngau nhien va duoc gop lai theo tung nhom( cluster) va su dung thuat
toan cluster Algorithm
>>> de lam viec loai bo am thanh nay ( thay vi phai lam viec phuc tap voi rat nhieu thu vien
>. Hoa ra chi can dung cooktail part agr voi chi 1 dong CODE ( phut 10)
Model Representation
training set>> dung thuat toan LA va Size ofhouse (x) >> hypothesis(H)( gia
thuyet) >> de dua ra ket qua la gia ban(y)
Muc tieu toi uu hoa cho thuat toan hoc tap la chung ta muon chon gia tri
theta>> day la ham muc tieu chua chung ta doi voi hoi quy tuyen tinh >> tim
gia tri nho nhat cua theta one
>> qua ben ho(x) ta cung thay khi ()=1 thi straightline dat tot nhat fit to data line well
Thongke: ho(x) se do thi dung de kiem dinh cuoi cung: do cung la noi cung cap
do lech h de tinh toan ham cost function J() ./ J() sau khi duoc tinh toan se cho
ra 1 cuvel tu do ta se tim diem min cua J se cho tuong ung voi x =? >>> ta dung
x de suy ra ho(x) nao la fit best
Gradient Descent:(giamdo
doc) thuat toan tim diem
minimize
gradient Descent:hok chi su dung trong hoi quy tuyen tinh ma trong tat cac linh
vuc cua machine learning (tai 0ph05) cung nhu nhieu function khac chu khong
chi la cost function J cho linear
ph1,34: co the co n tham so chu hok phai chi co 2.. Nhung vi su ngan gon nen
chi dung 2 tham so xuyen suot , chu co the dung gradient de xu ly n tham so la
binh thuong
ph5,47: vi tri start chi can khac 1 xi thoi la ket qua minimize tra ve cua
gradient co the da khac xa nhau roi >> bai sau se giai quyet van de nay
10ph40: cach update dong thoi dung : va cach update dong thoi sai
ta co cong thuc theta : voi alpha duoc thay bang d >> tai sao d lai thay the cho
alpha duoc???>> d duoc hieu nhu 1 ki hieu cua dao ham , voi purpose cua bai
nay thi 2 khai niem nay duoc hieu la 1( thuc su d la 1ki thuat trong tinh toan>>
hoc ve toan se hieu ro hon)
4ph25: xem cach thuat toan nay hoat dong nhu the nao?
8phh40: BATCH: name chi moi buoc cua thuat toan >>> dung de doc theo quy dinh chung
7ph25: co 2 kieu danh index trong vector( vector: la ma tran co n hang va 1 cot
duy nhat): index bat dau tu 1 va index bd =0: tuy thuoc vao ngon ngu su dung
trong ML , index=0 su dung de dang hon. Nhung trong vd nay se dung index one
Matrix Multiplication
Properties
ph00:02
Phép nhân ma trận thực sự hữu ích, vì bạn có thể gói nhiều phép tính vào chỉ
một phép toán nhân ma trận. Nhưng bạn nên cẩn thận về cách bạn sử dụng
chúng.
0ph44: commutative: thuoc tinh giao hoan la su dung trong phep nhan la se
dao nguoc thu tu >>> dieu nay khong dung trong matrix multipli
4:64: identity matrix: ma tran don vi: la ma tran co number one keo dai theo
duong cheo, con lai tat ca vi tri khac la number zero >>> no co tinh chat hoan
vi : A*I=I*A =A (I : la ma tran don vi co tinh chat I n*n ( m*m:hang va cot bang
nhau)
Vì vậy, làm thế nào tôi tìm thấy nghịch đảo này hoặc làm thế nào tôi nghĩ ra
nghịch đảo này ở đây >>Nó chỉ ra rằng đôi khi bạn có thể tính toán đảo ngược
bằng tay nhưng hầu như không ai làm điều đó ngày nay. Và hóa ra có một phần
mềm số rất tốt để lấy ma trận và tính toán nghịch đảo của nó
7ph40: transpose matrix : A >> AT
Bản thân phương trình giảm dần gradient thường có cùng dạng; chúng tôi chỉ
cần lặp lại nó cho các tính năng 'n' của chúng tôi:
1ph49: voi vdu x1 (0-2000 )va x2 (1-5)trong bai thi cost func la hinh elip rat
lech vi co x1 rat lon >> gradient co the mat rat nhieu time de tim diem
minimum
3ph45: ta lay moi tinh nang xap xi trong range sau: -1<= xi <=+1
Vì vậy, thông báo mang về nhà đừng lo lắng nếu các tính năng của bạn
không chính xác trên cùng một tỷ lệ hoặc chính xác trong cùng một phạm
vi giá trị. Nhưng miễn là tất cả chúng đều đủ gần với dải dốc này, nó sẽ
hoạt động ổn
1ph34: truc hoanh la so vong lap lai cua descent : cu sau bn vong lap lai do thi
ta lai co duoc gia tri J(theta)
5ph30: viec gradient tang dan len thuong la do diem start off gan ngay
minimum va ta su dung learning rate qua lon >> no over shoot
5ph57: J (theta) chay len va xuong va len va xuong chu hok giam dan deu dan
Trong video này, tôi muốn cho bạn biết một chút về lựa chọn các tính năng mà
bạn có và cách bạn có thể có được các thuật toán học tập khác nhau, đôi khi là
những thuật toán rất mạnh mẽ bằng cách chọn các tính năng phù hợp. Và đặc
biệt tôi cũng muốn nói với bạn về hồi quy đa thức cho phép bạn sử dụng máy
móc của hồi quy tuyến tính để phù hợp với các hàm rất phức tạp, thậm chí rất
phi tuyến tính.
Bai nay >> chung ta se lua chon hinh dang do thi( cach lua chon do thi thi xem
vi du trong link ben phai>>) de tu do lua chon ham phu hop nhat ( trong bai
nay: can bac hai, binh phuong, bac ba
07:20:00 >>>
Normal Equation: binh phuong
5ph41: cong thuc de tinh toan theta de co ham chi phi minimize
11ph12: co can du dung scale feature khi dung normal equation hok?
11ph53:
Cuối cùng, bạn nên sử dụng gradient descent ở đâu và khi nào bạn nên sử dụng
phương pháp phương trình bình thường. Dưới đây là một số ưu điểm và nhược
điểm của chúng
Tóm lại, miễn là số lượng đối tượng không quá lớn, phương trình bình thường
cho chúng ta một phương pháp thay thế tuyệt vời để giải tham số theta.
Chúng ta sẽ thấy rằng những thuật toán đó thực sự ... Phương pháp phương trình
bình thường thực sự không hoạt động đối với những thuật toán học phức tạp
hơn đó, và, chúng ta sẽ phải sử dụng đến gradient descent cho những thuật toán
đó. Vì vậy, gradient descent là một thuật toán rất hữu ích cần biết. Hồi quy
tuyến tính sẽ có một số lượng lớn các tính năng và đối với một số thuật toán
khác mà chúng ta sẽ thấy trong khóa học này, bởi vì, đối với chúng, phương
pháp phương trình bình thường không áp dụng và không hoạt động. Nhưng đối
với mô hình hồi quy tuyến tính cụ thể này, phương trình bình thường có thể
cung cấp cho bạn một phương án thay thế
Phát video bắt đầu lúc: 16: 7 và theo dõi bản ghi 16: 07
có thể nhanh hơn nhiều so với giảm độ dốc. Vì vậy, tùy thuộc vào chi tiết của
thuật toán của bạn, tùy thuộc vào chi tiết của vấn đề và số lượng tính năng mà
bạn có, cả hai thuật toán này đều đáng được biết đến.
Normal Equation
Noninvertibility:Phương trình
bình thường không khả biến
Trong video này, tôi muốn nói về phương trình Bình thường và tính không
nghịch đảo. Đây là một khái niệm có phần nâng cao hơn, nhưng đó là điều mà
tôi thường được hỏi về. Và vì vậy tôi muốn nói nó ở đây và giải quyết nó ở đây.
Nhưng đây là một khái niệm có phần cao cấp hơn, vì vậy hãy thoải mái xem xét
vật liệu tùy chọn này.
0ph40:Một được gọi là pinv, và cái kia được gọi là inv. Và sự khác biệt
giữa hai điều này là một chút kỹ thuật. Một cái được gọi là giả nghịch
đảo, một cái được gọi là nghịch đảo. Nhưng bạn có thể chỉ ra bằng toán
học rằng miễn là bạn sử dụng hàm pinv thì hàm này sẽ thực sự tính
toán giá trị dữ liệu mà bạn muốn ngay cả khi X chuyển vị X là không thể
đảo ngược
5ph
0ph58:
15ph:
Bạn biết đấy, bạn tải và lưu vectơ và ma trận, tải và lưu dữ liệu, ghép các ma
trận lại với nhau để tạo ra các ma trận lớn hơn, lập chỉ mục hoặc chọn các
phần tử cụ thể trên ma trận.
Computing on Data
Trong video này, tôi muốn hướng dẫn bạn cách thực hiện các thao tác
tính toán trên dữ liệu. Và sau này, chúng tôi sẽ sử dụng các nguồn hoạt
động tính toán này để triển khai các thuật toán học tập của chúng tôi.
1ph :>>
1ph59
https://www.academia.edu/43553377/NH%E1%BA%ACP_M
%C3%94N_GNU_OCTAVE_VERSION_5_2_0
Tao mot matrix vuong nhanh gon bang ham magic>>> 6ph40 : chi dung ham
magic khi lam demo thoi
thay the cac phan tu trong matrix bang gia tri mong muon max
bien mot matrix thanh vector
Nhan 1 matric voi matrix don vi nhung chi lay phan cheo thoi , con lai la swipe
het 11ph03
tinh sum cua cac column trong matrix vua duoc tao >> se cho ra 1 vec tor
Ghi chú : + Không thể thực hiện phép tính a*b ( a, b là hai vectơ hàng cùng
size ) ,Octave sẽ báo error ( toán tử * được dành riêng cho phép nhân ma trận )
.Thay vào đó :
+ Sử dụng phép nhân mảng , kí hiệu .* (dấu chấm trước dấu sao) , c = a .*b , sẽ
trả về một vectơ cùng size với a,b và
Có thể tạo vectơ cột bằng cách tạo vectơ hàng trước , sau đó dùng phép
chuyển vị ( transpose ) bằng cách đặt dấu nháy ‘ bên cạnh tên biến :
Ma tran: Phép tính mảng yêu cầu các toán hạng là các mảng cùng size . Phép
tính nhân , chia, lũy thừa mảng được thực hiện giữa các phần tử có cùng vị trí
. Kết quả trả về là một mảng cùng size.
Plotting Data
May mắn thay, Octave có các công cụ rất đơn giản để tạo ra nhiều lô khác nhau
và khi tôi sử dụng các thuật toán học tập, tôi thấy rằng việc lập biểu đồ dữ liệu,
lập biểu đồ thuật toán học tập, v.v. thường là một phần quan trọng trong cách
tôi lấy ý tưởng để cải thiện các thuật toán và video này, tôi muốn cho bạn xem
một số công cụ Octave này để vẽ và hiển thị dữ liệu của bạn.
hien ra element
Cau truc vong lap While( chu y la phai co i+=1 : neu hok no chay mai)
Cach chuyen duong dan nang cao de ngay ca khi octave dang chay tren 1
duong dan nao do thi vantim duoc file minh can mien la go dung ten
7ph50:cho phép bạn xác định các hàm trả về nhiều giá trị hoặc nhiều đối số.
12ph50: video hướng dẫn quãng tám cuối cùng, tôi muốn cho bạn biết về
vectơ hóa, đó là một ý tưởng về cách làm cho các chương trình quãng tám của
bạn chạy nhanh hơn nhiều.
Vectorization
6ph24: ach trien khai vectorize trong gradient descent cua linear
Phân loại
Để tìm cách phân loại, một phương pháp là sử dụng hồi quy tuyến tính và ánh
xạ tất cả các dự đoán lớn hơn 0,5 là 1 và tất cả nhỏ hơn 0,5 là 0. Tuy nhiên,
phương pháp này không hoạt động tốt vì phân loại không thực sự là một hàm
tuyến tính.
Hypothesis
RepresentationTrình bày giả
thuyết
Hãy bắt đầu nói về hồi quy logistic. Trong video này, tôi muốn cho bạn thấy
cách trình bày giả thuyết.
0ph46: logistic reg: la them g vao: g(thetaT x) Voi g duoc dinh nghia la sigmoid
function, or the logistic function
6:55
Và tôi muốn nói với bạn về một thứ gọi là ranh giới quyết định. Và chúng ta sẽ
cùng nhau xem xét một số hình dung để cố gắng hiểu rõ hơn về chức năng giả
thuyết của hồi quy logistic thực sự trông như thế nào.
11:02
1.phan biet mot cai: la du doan san pham ban ra sau 3 thang >> bai toan hoi quy
2.nhan dinh xem khach hang co bi hack hay hok: phan loai ( khong /co)
Vd: nhom ban be tren facebook, nhom cac customer theo phan
khuc thi truong khach hang khac nhau de ban hang hieu qua
hon( chung ta khong biet duoc phan khuc kh 1, phkh2... Chung ta de
thuat toan tu clus). Vu tru...
https://www.coursera.org/learn/machine-learning/lecture/db3jS/model-representation
>> tai 10ph35: gia tri nho nhat cua theta1 la tai x=1
to data line well
Ta se tuong tuong cac hinh elipse khi qua khoi duong do se la mot
mat phang >> 3 diem ma trong 1 line ma vd chon se la nhu nhau
Con voi cac diem ben trong thi voi moi diem day doi thi se co hinh
thai hypo khac >> muc tieu la phai tien ve tam de dat minimize>>
bai sau se hoc cach tim dieu nay mot cach auto bang thuat toan
https://www.coursera.org/learn/machine-learning/lecture/8SpIM/gradient-descent
dau tien se bat dau voi cac du doan ban dau cho theta0 va 1( hok quan trong no la gi>> cu chon bat ki gia tri nao minh muo
https://www.coursera.org/learn/machine-learning/lecture/GFFPB/gradient-descent-intuition
https://www.coursera.org/learn/machine-learning/lecture/kCvQc/gradient-descent-for-linear-regression
https://www.youtube.com/watch?v=4b4MUYve_U8&list=PLoROMvodv4rMiGQp3WXShtMGgzqpfVfbU&index=2
Bai tap luc9:00 : voi specific choices (j0,j1) thi se khong co local optimum ma chi co globl optiumum >>> chi co 1 optimum d
theo quy dinh chung
https://www.coursera.org/learn/machine-learning/lecture/38jIT/
g index one
>>khong dung tinh chat giao hoan trong matrix multi
a*b # b*a
vd:1ph20: ta thu cho 2 matrix lam phep nhan truoc va sau khi dao nguoc se co ket qua khac nhau
matricx co tinh chat nhan nhu vay va se tra ve result nhu nhau
https://www.coursera.org/learn/machine-learning/lecture/FuSWY/inverse-and-transpose
https://www.coursera.org/learn/machine-learning/lecture/Z9DKX/gradient-descent-for-multiple-variables
nếu bạn triển khai thuật toán được viết ở đây thì bạn có một triển
khai hồi quy tuyến tính hoạt động với nhiều tính năng.
https://www.coursera.org/learn/machine-learning/lecture/xx3Da/gradient-descent-in-practice-i-feature-scaling
nếu bạn đảm bảo rằng các tính năng có cùng quy mô, theo đó tôi
muốn nói rằng hãy đảm bảo rằng các tính năng khác nhau có các
phạm vi giá trị tương tự,
Trong các cài đặt này, một điều hữu ích cần làm là mở rộng các
tính năng.
>> nhung neu ta co cac features nam ngoai doan nay nhung du gan
-1,1 thi cung duoc vd: -2<= x2 <=0.5 0<=x1 <=3( Con neu la
-100<= x3<=100 hoac la - 0.00001<= x4<= 0.00001 : la khong duoc
vi qua lon hoac qua nho so voi -1 va 1)
Những người khác nhau có các quy tắc ngón tay cái khác nhau: co
the la pham vi -3<= x <= 3 hoac -1/3 <= x <= 1/3 van Ok )
xi:=sixi−μi
https://www.coursera.org/learn/machine-learning/lecture/3iawu/gradient-descent-in-practice-ii-learning-rate
>> neu gradient xu ly dung' thi J(theta) se giam dan qua moi vong
lap (iteration)
>> chu y: số lần lặp lại gradient descent cần để hội tụ cho một ứng
dụng vật lý có thể khác nhau rất nhiều, vì vậy có thể đối với một ứng
dụng, gradient descent có thể hội tụ chỉ sau ba mươi lần lặp. Đối với
một ứng dụng khác, quá trình giảm độ dốc có thể mất 3.000 lần lặp,
đối với một thuật toán học tập khác, có thể mất 3 triệu lần lặp
Vì vậy, những gì tôi sẽ làm là thử một loạt các giá trị cho đến khi tôi
tìm thấy một giá trị quá nhỏ và đảm bảo rằng tôi đã tìm thấy một giá
trị quá lớn. Và sau đó tôi sẽ cố gắng chọn giá trị lớn nhất có thể,
hoặc chỉ một giá trị nhỏ hơn một chút so với giá trị hợp lý lớn nhất
mà tôi tìm thấy. Và khi tôi làm điều đó thường chỉ mang lại cho tôi
một tỷ lệ học tập tốt cho vấn đề của tôi. : 0.001 -0.003-0.01 -0.03
-0.1-0.3-1 ...
https://www.coursera.org/learn/machine-learning/lecture/Rqgfz/features-and-polynomial-regression
Đó là mặt tiền x chiều sâu vì đây là diện tích đất mà tôi sở hữu và
sau đó tôi có thể chọn giả thuyết của mình là chỉ sử dụng một đối
tượng địa lý là diện tích đất của tôi, phải không? Bởi vì bạn biết diện
tích của một hình chữ nhật, là tích của chiều dài của kích thước Vì
vậy, tùy thuộc vào thông tin chi tiết mà bạn có thể có về một vấn đề
cụ thể, thay vì chỉ lấy các tính năng [xx] mà chúng ta đã bắt đầu, đôi
khi bằng cách xác định các tính năng mới, bạn thực sự có thể nhận
được một mô hình tốt hơn.
http://estudy.edu.vn/course/lesson/hinh-dang-do-thi-mot-so-ham-so-co-ban-ttop7vcwiqtsmxyd4il4hadsjp
https://toanhoc247.com/nhan-dang-do-thi-ham-so-a8399.html#:~:text=C%C3%A1c%20d%E1%BA%A1ng%20%C4%91%E1
Sau đó trong lớp học này, chúng ta sẽ nói về một số thuật toán đã tự
động chọn những tính năng nào được sử dụng, vì vậy bạn có thể có
một thuật toán xem xét dữ liệu và tự động chọn cho bạn xem bạn
muốn phù hợp với hàm bậc hai hay hàm bậc ba, hoặc thứ gì khác.
https://www.coursera.org/learn/machine-learning/lecture/2DKxQ/normal-equation
Nếu bạn đang sử dụng phương pháp phương trình thông thường này
thì việc chia tỷ lệ đối tượng không thực sự cần thiết và thực sự ổn
nếu, giả sử, một số đối tượng X một nằm trong khoảng từ 0 đến một
và một số đối tượng X hai nằm trong khoảng từ 0 đến một nghìn và
một số đối tượng x ba phạm vi từ 0 đến 10 đến trừ năm và nếu bạn
đang sử dụng phương pháp phương trình bình thường thì điều này
không sao và không cần thực hiện chia tỷ lệ đối tượng, mặc dù tất
nhiên nếu bạn đang sử dụng gradient descent thì việc chia tỷ lệ đối
tượng vẫn rất quan trọng .
Vì vậy, nếu n lớn thì tôi có thể thường sử dụng gradient descent vì
chúng tôi không muốn trả hết số tiền này trong q thời gian. Nhưng,
nếu n tương đối nhỏ, thì phương trình bình thường có thể cung cấp
cho bạn cách tốt hơn để giải các tham số
Nhung: the nao la nho va lon : n<=100 thi may tinh co the tinh duoc . N=1000 thi cham
Tuy nhiên, đối với tôi, thường là khoảng mười nghìn mà tôi có thể
bắt đầu cân nhắc chuyển sang chuyển sang gradient giảm dần
https://www.coursera.org/learn/machine-learning/lecture/zSiE6/normal-equation-noninvertibility
Vấn đề hoặc vấn đề x chuyển vị x không thể đảo ngược nên rất hiếm khi xảy ra.
trước tiên tôi sẽ suy nghĩ về các tính năng của mình và kiểm tra xem
có cái nào là thừa hay không. Và nếu vậy thì hãy tiếp tục xóa các
tính năng thừa cho đến khi chúng không còn thừa nữa. Và nếu các
tính năng của bạn không thừa, tôi sẽ kiểm tra xem liệu tôi có thể có
quá nhiều tính năng hay không. Và nếu đúng như vậy, tôi sẽ xóa một
số tính năng nếu tôi có thể chịu sử dụng ít tính năng hơn hoặc nếu
không, tôi sẽ xem xét sử dụng chính quy.
https://www.coursera.org/learn/machine-learning/lecture/Lt2Mx/working-on-and-submitting-programming-assignments
https://www.coursera.org/learn/machine-learning/lecture/9fHfl/basic-operations
ph4: cac lenh co ban cua phep toan logic :true false
chan viec in ra bang ;
v= 1:0.1:2 # v se chay tu 1 den 2 voi step la 0.1
https://www.academia.edu/43553377/NH%E1%BA%ACP_M%C3%94N_GNU_OCTAVE_VERSION_5_2_0
quit / exit
pwd
cd ''
https://www.coursera.org/learn/machine-learning/lecture/SZJIc/moving-data-around
V=[1 2 3 4] # vector V
length(V) # tra ve size of longest dmension
who # xem tat ca cac bien hien dang nam trong bo nho cua Octave
A([1 3],:) # lay tat ca element cua row thu 1 va row thu 3
https://www.coursera.org/learn/machine-learning/lecture/Y6uuC/computing-on-data
A*B
error: operator *: nonconformant arguments (op1 is 3x2, op2 is 3x2)
A^2
error: for x^y, only square matrix arguments are permitted and one argument must be scalar.
Use .^ for elementwise power.
>>> nhung neu
A.^2 # OK
a=[1 15 2 0.5]
a<3 : so sanh cac element cua a xem co nho hon 3 khong va tri ve boolean
a=[1 15 2 0.5]
find(a<3) # tim index cac ele <3 trong matrix a
A=magic(3) # goi ra mot matrix 3*3 voi cac so nam trong khoang (1
den 3*3)
[r,c] =find(A>=7) # r la row , c la columns : tim cac element namn tren row va
column thoa man dieu kien >=7
n=[1 2 3 4]
prod(n) # nhan tat ca cac elemtn
c= [1.6 5.7 6.8 7.9]
floor(c) # lenh giam gia tri ele xuong inter
ceil(c) # tang gia tri len inter
A= [1 2; 3 4; 5 6]
sum(A,1) # tinh tong cua cac column va hien thanh vector 1*n
sum(A,2) # tinh tong cua cac row va hien thanh vector n*1
eye(3)
A=magic(3)
A.*eye(3) # SE HIEN ra matrix chi co duong cheo con lai la 0 het
D=A.*eye(3)
sum(D)
sum(sum(D))
c = a.*b % [ 2 4 6] .* [1 6 2] >>>>> c = 2 24 12
https://www.coursera.org/learn/machine-learning/lecture/I7gx3/plotting-data
y2=cos(2*pi*t);
y1=sin(2*pi*t);
plot(t,y1);
hold on;
plot(t,y2);
>> xlabel('time')
>> ylabel('value')
>> legend('sin','cos')
>> title('my plot octave')
cd 'C:\Users\AT\Desktop';print -dpng 'my plot octave.png'
subplot(1,2,1);plot(t,y1)
>> subplot(1,2,2);plot(t,y2)
imagesc(magic(15)), colorbar()
imagesc(eye(4)),colorbar()
a=1,b=2,c=3 # put nhieu command tren 1 line
https://www.coursera.org/learn/machine-learning/lecture/LRQnl/control-statements-for-while-if-statement
v=zeros(10,1)
for i=1:10,
v(i)=2^i;
end;
indices= 1:10;
for i = indices,
v(i)=2^i;
end;
i=1;
while i<=5,
v(i) =100;
i+=1;
end;
while true,
v(i)=999;
i+=1;
if i==7,
break;
end;
end;
if v(1)==1,
disp('the value is one');
elseif v(1)==2,
disp('the value is two');
else,
disp('the value is not one or two');
end;
the value is two
https://www.coursera.org/learn/machine-learning/lecture/wlPeP/classification
https://www.coursera.org/learn/machine-learning/lecture/RJXfB/hypothesis-representation
bat dau gan nhu o 0 sau do cat truc tung va den 1 la gan nhu di
ngang
hθ(x)=P(y=1|x;θ)=1−P(y=0|x;θ) P(y=0|x;θ)+P(y=1|
x;θ)=1
https://www.coursera.org/learn/machine-learning/lecture/WuL1H/decision-boundary
chon bat ki gia tri nao minh muon)
near-regression
MGgzqpfVfbU&index=2
ptiumum >>> chi co 1 optimum duy nhat nen kok lo lang co nhieu optimum da dam do doc
multiple-variables
actice-i-feature-scaling
actice-ii-learning-rate
al-regression
tsmxyd4il4hadsjp
%E1%BA%A1ng%20%C4%91%E1%BB%93%20th%E1%BB%8B%20th%C6%B0%E1%BB%9Dng,%C4%91%E1%BB%99%20th%E1%BB%8B%
tting-programming-assignments
RSION_5_2_0
pdf octave trang 39
-while-if-statement
B%99%20th%E1%BB%8B%20h%C3%A0m%20ph%C3%A2n%20th%E1%BB%A9c.