본문 바로가기

공부/인공지능11

[머신러닝 과제] 로지스틱 회귀와 k-NN 구현 혼동 행렬 (Confusion matrix) TP : True Positive, 실제 True인데 예측 True로 판단 TN : True Negative, 실제 False인데 예측이 False로 판단 FP : False Positive, 실제 False인데 예측이 True로 판단 FN : False Negative, 실제 True인데 예측이 False로 판단 TP 는 '정답이다!!!' TN 는 '오답이잖아? 그럴 줄 알았어!!!' FP 는 '정답이네!!!.... 아니네...' FN 는 '오답이네!..... 정답이었구나...' 즉 TP,TN 이 높을 수록 정확도가 높은 거고 FP,FN 은 낮을 수록 좋은 거다. Logisitic Regression, 로지스틱 회귀 회귀를 사용하여 데이터가 어떤 범주에 속할.. 2021. 5. 11.
[인공지능]10.Bayesian Networks 2 Bayesian Networks The Syntax of Bayesian Networks The Semantics of Bayesian Networks Constructing Bayesian Networks Conditional Independence Relations in Bayesian Networks Compact Conditional Distributions Hybrid(discrete + continuous) Networks Continuous Child Variable Discrete Variable with Continuous Parents Conditional Independence Relations in Bayesian Networks 노드 X의 parent 노드는 U1~Um 까지 총 m.. 2020. 12. 7.
[인공지능] 9.Bayesian Networks Bayesian Networks 저희가 저번 강의에서 공부한 Conditional independeant 의 연장선이라고 생각하시면 됩니다. 목차는 다음과 같습니다. The Syntax of Bayesian Networks The Semantics of Bayesian Networks Constructing Bayesian Networks Conditional Independence Relations in Bayesian Networks Compact Conditional Distributions Hybrid(discrete + continuous) Networks Continuous Child Variable Discrete Variable with Continuous Parents The Syntax.. 2020. 10. 16.
[인공지능] 8.Uncertainty 불확실성을 표현할 확률이 어떻게 인공지능에 적용을 될지에 대해서 이야기 해보겠습니다. 목차는 다음과 같습니다. Basic Probability Notation Language of Propositions in Probability Assertions Inference Using Full Joint Distributions Independence Bayes' Rule and Its Use Basic Probability Notation 가장 먼저 set 오메가로 시작합니다. 이를 sample space 라고 부릅니다. ex) 주사위 굴리면 6개의 경우의 수가 나옴 -> 6개의 sample space 그리고 6개의 숫자 하나하나를 sample point/possible world/atomic event 등으.. 2020. 10. 15.