평균트루범위 지표

마지막 업데이트: 2022년 4월 22일 | 0개 댓글
  • 네이버 블로그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 트위터 공유하기
  • 카카오스토리 공유하기
사진 출처 - https://sumniya.tistory.com/26

[지표연구] Ultimate oscillator 지표에 대하여

Ultimate oscillator는 주가 움직임의 모멘텀을 측정하기 위해 쓰이는 모멘텀 지표입니다. 서로 다른 세 개의 기간대 동안의 주가 움직임을 하나의 오실레이터로 결합한 것으로, 시간의 길이에 관계없이 대부분의 oscillator 개념을 설명합니다.
미래의 움직임과 관련될 수 있는 정보들을 단 하나의 기간으로만 판단하는 ocillator들과 달리, Ultimate Oscillator는 정보의 범위를 넓혀서 주식 가격 모멘텀의 완전한 그림을 얻고 함정을 피하기 위해 이용합니다.

Ultimate oscillator의 방정식에 쓰이는 수식들은 아래와 같습니다.

  • true low = min(전날 종가, 당일 최저가)
  • true high = max(전날 종가, 당일 최고가)
  • true range(tr) = true high - true low
  • 매수 압력(buying pressure,bp) = 종가 - min(전날 종가, 당일 최저가) = 종가- true low
  • 매도 압력(selling pressure,sp) = 종가 - max(전날 종가, 당일 최고가) =종가 -true high
  • 전날 종가와 당일 최저가의 가격이 같을 시, bp=0
  • 전날 종가와 당일 최고가의 가격이 같을 시, sp=0
  • 전날 종가가 10,000원이고 오늘 최저가가 12,000이면 매수 압력은 2,000원입니다.
  • 전날 종가가 10,000원이고 오늘 최고가가 12,000이면 매도 압력은 -2,000원입니다
  • 전날 종가가 10,000원이고 오늘 최저가가 9,000원/최고가가 12,000원이면
    true range = true high - true low = 12,000 - 9,000 = 3,000

만약 period 7에서 bp1을 오늘, bp2을 어제, . bp7을 일주일 전이라고 가정할 때, true range 범위내에서의 평균가격(avg)는

평균가격(avg7) = (bp1+bp2+. bp7)/(tr1+tr2+. tr7)

Ultimate oscillator(7,평균트루범위 지표 14,28) =(4*avg7+2avg14+avg28)/ (4+2+1)
(∵ 1/7 : 1/14 : 1/28 = 4:2:1)

☞ 해석
Ultimate Oscillator는 RSI와 Stochastic과는 다르게, 3개의 시간측정단위에 가중치를 부여하며, true range범위 내에 값을 계산합니다. 0~100사이에 범위를 가지며, ultimate (7,14,28)이 80이라는 의미는 7일 14일 28일 3개의 시간가중치동안 상승 모멘텀이 80이라는 의미입니다.

평균트루범위 지표

사진 출처 - https://sumniya.tistory.com/26

  • TP(True Positive) : 정답 True, 예측 값 True (정답)
  • FP(False Positive) : 정답 False, 예측 값 True (오답)
  • FN(False Negative) : 정답 True, 예측값 False (오답)
  • TN(True Negative) : 정답 False, 예측값 False (정답)

1. Precision(정밀도)

모델이 True라고 분류한 것 중에서 실제 True인 것의 비율

정답률(Positive Predictive Value, PPV)라고도 불린다.

만약 FP = 0이면 결과가 무조건 1이 됨으로 꼭 1이라고 좋은 것은 아니다.

다시말해 Precision이 0이라는 것은 False인 것을 False로는 잘 예측 했지만, True인 것을 True로 잘 인식했다고 할 수는 없는 것이다.

2. Recall(재현율)

실제 True인 것 중에서 모델이 True라고 예측한 비율

통계학에서 sensitivity, 다른 분야에서는 hit rate라는 용어로도 평균트루범위 지표 사용한다.

이는 Precision과 다르게 결과가 1이나온 다는 것은 True인 것은 모두 True로 잘 예측 했지만 False은 것을 False로 잘 예측 했다고는 할 수 없다.

※ Precision은 모델의 입장, Recall은 실제 정답의 입장에서 본 관점

=> 요약하자면 Precison은 1에 가까울 수록 False를 잘 예측한 것이고 Recall은 True를 잘 예측 한 것이다.

3. Accuracy(정확도)

가장 직관적으로 모델의 성능을 나타낼 수 있는 평가 지표

이는 data의 bias(편중)이 발생할 경우 평가의 신뢰도가 낮아진다.

다시 말해 잘 못 예측한 것이 모든 데이터의 극 소수라면 모델이 잘 만들어졌다고 보기 힘든 것이다.

4. F1 score

Precision과 Recall의 조화평균

F1 score는 데이터 label이 불균형 구조일 때, 모델의 성능을 정화하게 평가할 수 있으며, 성능을 하나의 숫자로 표현 가능하다. F1-score는 데이터 레이블이 불균형 구조일 떄, 모델의 성능을 정확하게 평가할 수 있다.[출처: ' 텍스트 분류 기반 기계학습의 정신과 진단 예측 적용'논문 인용]

5. ROC curve

모든 분류 임계값에서 분류 모델의 성능을 보여주는 그래프, 이 곡선은 참 양성 비율(TPR)과 허위 양성 비율(FPR)을 표시

이미지 출처 : https://developers.google.com/machine-learning/crash-course/classification/roc-and-auc?hl=ko

ROC 곡선의 점을 계싼하기 위해 분류 임계값이 다른 로지스틱 회귀 모형을 여러 번 평가할 수 있지만 이 방법은 효율적이지 않아 AUC라는 알고리즘이 나옴

6. AUROC(=AUC)

  • ROC curver 그래프 아래의 면적값으로 최대값은 1이며 좋은 모델일 수록 1에 가깝다.
  • AUC 값의 범위는 0~1
  • AUC는 척도 불변이여서 절대값이 아니라 예측이 얼마나 잘 평가되는지 측정한다.
  • AUC는 분류 임계값 불변이여서 어떤 분류 임계값이 선택되었는지와 상관 없이 모델의 예측 품질을 측정
  • 하지만 척도 불면이 항상 이상적인 것은 아니다. 예를 들어 잘 보정된 확률 결과가 필요한 경우 AUC는 이 정보를 알 수 없음
  • 분류 임계값 불변의 경우 FN과 FP 비용에 큰 차이가 있는 경우 한 가지 유형의 분류 오류를 최소화하는 것은 위험할 수 있다.
  • sklearn.metrics.auc ( x , y )를 이용하여 계산 가능하다 - 참고링크

sklearn.metrics.auc — scikit-learn 0.24.1 documentation

※분류 임계값이란 것은 로지스틱 회귀 값을 이진 카테고리에 매핑하려고 회귀 값 x부터는 1로 나머지는 0으로 본다의 개념으로 생각하면 될 것 같다. - 참고료링크

[ML] 오차행렬과 분류 모델의 성능 평가 지표

분류성능평가지표 - Precision(정밀도), Recall(재현율), Accuracy(정확도), F1-score

confusion

  • True Positive(TP) : 실제 True인 정답을 True라고 예측 (정답)
  • True Negative(TN) : 실제 False인 정답을 False라고 예측 (정답)
  • False Positive(FP) : 실제 False인 정답을 True라고 예측 (오답)
  • False Negative(FN) : 실제 True인 정답을 False라고 예측 (오답)

1) Accuracy(정확도)

정확도는 전체 예측 건수에서 정답을 맞힌 건수의 비율이다.(정답이 True, False 상관 없음)

정확도는 가장 직관적으로 모델의 성능을 나타낼 수 있는 평가 지표이다.
쉽게 말하면 정확도는 예측이 정답과 얼마나 정확한지를 나타낸다.

하지만 accuracy는 데이터에 따라 잘못된 통계를 가져올 수도 있다. 예를 들어 감염률이 0.1%인 질병을 예측하는 모델이 있다고 가정해본다. 감염률이 1%도 안되기 때문에 무조건 Negative로 예측하면 매우 높은 accuracy가 나올 것이다.

하지만 높은 accuracy가 나오지만 True Positive는 거의 없이 True Negative만 높아지게 되므로 이 모델은 전혀 쓸모가 없다. 이렇게 실제 데이터에 Negative 비율이 너무 높아서 희박한 가능성으로 발생할 상황에 대해 제대로된 분류를 해주는지 평가해줄 다른 지표들을 찾아야한다.

2) Recall(재현율)

재현율은 실제 정답이 True인 것 중에서 분류기가 True라고 예측한 것의 비율이다.

sensitivity(민감도), hit rate(적중률), True Positive Rate(진짜 양성 비율) 이라고도 부른다.
쉽게 말하면 재현율은 찾아야 할 것중에 실제로 찾은 비율을 말한다.

위에서 예로 들었던 질병을 예측하는 모델에서 언제나 Negative로 예측하는 분류기가 있다면 accuracy는 거의 100%에 가까운 값이 나오겠지만, recall은 실제 정답이 true인 것 중에서 모델이 true라고 예측한 것의 비율이므로 True Positive를 찾을 수 없으니 recall은 0이 된다.

하지만 반대로 분류기가 항상 true로 예측한다면 accuracy는 낮아지겠지만, recall은 높은 값을 가진다.

3) Precision(정밀도)

정밀도란 분류기에 예측이 True인 것 중에서 실제 정답이 True인 경우의 비율이다.

Positive 정답률, Positive Predictive Value(양성 예측도) 라고도 부른다.
쉽게 말해서 정밀도는 예측한 것중에 정답의 비율을 말한다.

위에서 예로 들었던 질병 예측 모델에서 항상 true로 예측하는 분류기에서 모델이 항상 질병이라고 예측하기 때문에 recall은 1에 가까운 값을 가지지만, 실제로 질병이 있을 확률이 거의 없기 때문에 precision은 0에 가까울 것이다.

Recall 과 Precision의 차이

Recall이나 Precision은 모두 실제 True인 정답을 모델이 True라고 예측한 경우에 관심이 있으나, 바라보고자 하는 관점이 다르다.
Recall은 실제 정답의 입장에서, Precision은 예측 모델의 입장에서 정답을 정답이라고 맞춘 경우를 바라보고 있다.

먼저 코로나를 판단 하는 모델로 예를 들어보겠다.

  • TP : 코로나 환자에게 코로나라고 예측한 경우
  • FN : 코로나 환자에게 코로나가 아니라고 예측한 경우
  • FP : 코로나 환자가 아닌 사람에게 코로나라고 예측한 경우
  • TN : 코로나 환자가 아닌 사람에게 코로나가 아니라고 예측한 경우

여기서 TP와 TN은 정확히 예측한 경우이고 FP와 FN은 잘못 예측한 경우이다.
하지만 FN에서 코로나 환자에게 코로나가 아니라고 예측했을 때 최악의 문제가 생기게 된다.

이런 경우에 Recall(재현율)을 사용한다.

다음으로 스팸 메일 구분하는 모델로 예를 들어보겠다.

  • TP : 스팸 메일을 스팸으로 예측한 경우
  • FN : 스팸 메일을 정상으로 예측한 경우
  • FP : 정상 메일을 스팸으로 예측한 경우
  • TN : 정상 메일을 정상으로 예측한 경우

여기서도 TP와 TN은 정확히 예측한 경우이고 FP와 FN은 잘못 예측한 경우이다.
하지만 이 모델에서는 FP에서 정상 메일을 스팸 메일로 예측했을 때 정상적인 업무가 불가능하게 된다.

이런 경우에 Precision(정밀도)를 사용한다.

쉽게 말해서 재현율은 잘못 걸러내는 비율이 높더라도 놓치는 것이 없도록 하는 것이고 정밀도는 미처 잡아내지 못하는 것이 있더라도 더 정확한 예측이 필요할 때 사용한다.

가장 좋은 것은 Recall과 Precision 모두 높은 값을 얻는 것이다.
하지만 Recall과 Precision은 상충하는 개념이기 때문에 하나가 높아지면 다른 하나는 낮아진다.

그래서 이 둘을 조합해서 만든 평가 지표가 F1-score 이다.

4) F1 score

F1 score는 Recall과 Precision의 조화평균이다.

F1 score는 데이터가 불균형할 때 모델의 성능을 정확하게 평가할 수 있다.

산술평균을 사용하지 않고 조화평균을 사용하는 이유는 예를 들어 recall = 1, precision = 0.01 이라고 하고 평균을 구해보자. 한쪽으로 치우친, 편향된 모델이기 때문에 이 모델은 성능이 좋지 않다.

산술평균을 구하면 $ \frac <(1 + 0.01)> = 0.505 $ 가 나오게 되고 이 모델이 절반은 맞추는 것처럼 보인다.

하지만 조화평균을 구하면 $ 2 * \frac <(1 * 0.01)> <(1 + 0.01)>= 0.019 $ 이므로 모델의 성능이 좋지 않게 나온다.

따라서 산술평균보다 조화평균으로 구한 F1-score가 모델의 성능을 더 정확하게 평가할 수 있다.

그 외 다른 지표들

이 외에도 모델의 성능을 측정하는 다양한 지표들이 존재한다.

1) Fall-out

Fall-out은 FPR(False Positive Rate)으로도 불리며, 실제 False인 것 중에서 모델이 True라고 예측한 비율이다. 즉, 모델이 실제 false data인데 True라고 평균트루범위 지표 잘못 예측한 것으로 다음과 같이 표현할 수 있다.

2) ROC(Receiver Operating Characteristic) curve

여러 값들을 기준으로 Recall - Fallout의 변화를 시각화한 것이다.
즉, TPR(진짜 양성 비율)에 대한 FPR(거짓 양성 비율) 평균트루범위 지표 을 나타낸다.

Fallout은 실제 False인 data 중에서 모델이 True로 분류한 것이고,
Recall은 실제 True인 data 중에서 모델이 True로 분류한 비율을 나타낸 지표이다.

이 두 지표를 각각 x, y의 축으로 놓고 그래프가 그려진다.

roccurve

curve가 왼쪽 위 모서리에 가까울수록 모델의 성능이 좋다고 평가한다.
즉, Recall(TPR)이 크고 Fall-out(FPR)이 작은 모형이 좋은 모형이다.

3) AUC(Area Under Curve)

AUC 는 ROC 곡선 아래 영역을 의미한다.

ROC curve는 그래프이기 때문에 명확한 수치로써 비교하기가 어렵다. 따라서 그래프 아래의 면적값을 이용한다.

auc

AUC 값의 범위는 0 ~ 1 이다. 예측이 잘못된 모델의 AUC는 0에 가깝고 예측이 정확한 모델의 AUC는 1에 가까운 값이 나온다.

평균트루범위 지표

경진 대회에는 크게 두 가지 요소가 있는데, 데이터와 평가지표이다. 평가지표는 대회에서 순위를 결정하는 중요한 요소로, 어떠한 평가 기준에 따라 모델의 성능을 파악하느냐에 따라 결과가 천차만별로 달라진다. 데이터는 다음과 같은 문제들로 구분된다.

2.평균트루범위 지표 1.1 회귀 문제

회귀문제의 평가 지표는 RMSE , MAE 가 있다.

2.1.2 분류 문제

이진 분류는 데이터가 어떤 속성에 속하는지 예측하는 문제이다. 평가지표로는 F1-score, 로그 손실, AUC 가 있다.

2.1.3 추천 평균트루범위 지표 문제

고객의 구매가 기대되는 상품과 반응이 있을 법한 광고를 예측하는 문제이다 . 평가 지표로는 [email protected], mean-F1, macro-F1 가 있다.

2.1.4 그 밖의 문제

  1. 객체 탐지(object detection): 이미지에 포함된 물체의 클래스를 구분하는 문제이다.
  2. 세분화(segmentation): 이미지에 포함된 물체의 영역을 픽셀 단위로 추정하는 문제이다.

2.2 경진 대회의 데이터셋

경진 대회의 데이터셋은 크게 훈련 데이터셋(train dataset) , 테스트 데이터셋(test dataset) 으로 구분된다. 그 밖의 데이터로 시계열 데이터 , 이미지 분류 문제에 사용되는 이미지넷(ImageNet) 이 있다.

2.3 평가지표

2.3.1 회귀의 평가지표

  1. 제곱근평균제곱오차(RMSE) 가 주로 사용된다. 공식은 다음과 같다.

  • RMSE의 값을 최소화했을 때의 결과가, 오차가 정규분포를 따른다는 전제하에 구할 수 있는 최대가능도방법과 같아지는 등 통계학적으로도 큰 의미를 가지고 있는 평가지표이다.
  • 하나의 대푯값으로 예측을 실시한다고 가정했을 때 평가지표RMSE를 최소화하는 예측값이 바로 평균값이다.
  • 이상치를 제외한 처리 등을 미리 해 두지 않으면 이상치에 과적합한 모델을 만들 가능성이 있다.

2. RMSLE(Root Mean Square Logarithmic Error): 실제값과 예측값에 로그를 각각 취해 그 차의 제곱평균제곱근으로 계산되는 지표이다. 공식은 다음과 같다.

  • 예측할 대상인 목적변수를 정한다. 이 변수의 값에 로그를 취한 값을 새로운 목적변수로 삼는다. 그 후 이에 대한 RMSE를 최소화하면 RMSLE가 최소화된다.
  • 목적변수의 분포가 한쪽으로 치우치면 큰 값의 영향력이 일반적인 RMSE보다 강해지기 때문에 이를 방지하려고 사용한다.
  • 이 지표는 비율에 주목한다.

3. MAE (Mean Absolute Error, 평균절대오차): 실젯값과 예측값의 차에 대한 절댓값의 평균으로 계산되는 지표이다.

  • MAE는 이상치의 영향을 상대적으로 줄여주는 평가에 적절한 함수이다.
  • 하나의 대표값으로 예측할 때 MAE를 최소화하는 예측값은 중앙값이다.

2.3.3 이진 분류의 평가지표 (1)

1. 이진 분류의 평가지표는 다음과 같이 2가지로 나눌 수 있다.

  • 각 행 데이터가 양성(positive)인지 음성(negative)인지를 예측값으로 삼아 평가하는 평가지표
  • 각 행 데이터가 양성일 확률을 예측값으로 삼아 평가하는 평가지표

2. 모델의 성능을 파악할 때 주로 사용되는 지표는 혼동행렬 이다. 혼동행렬은 다음과 같이 네 개의 영역으로 평균트루범위 지표 구분하여 표현한다.

  • TP(True Positive, 참 양성): 예측이 정확하다(True), 예측값 양성(Positive), 실제값 양성(Positive)
  • TN(True Negative, 참 음성): 예측이 정확하다.(True), 예측값 음성(Negative), 실제값 음성(Negative)
  • FP(False Positive,거짓 양성): 예측이 틀렸다.(False), 예측값 양성(Positive), 실제값 음성(Negative)
  • FN(False Negative, 거짓 음성): 예측이 틀렸다.(False), 예측값 음성(Negative),실젯값 양성(Positive)
  • 정확도 : 예측이 정확한 비율을 나타낸다.

5. 정확도, 오류율, 정밀도, 재현율은 서로 밀접하게 연관되어 있다. 데이터에 따라, 어느 평가지표를 우선시하고 싶으냐에 따라 사용되는 평가지표는 달라진다. 잘못된 예측 ( 오답 ) 을 줄이고 싶다면 정밀도를 중시하고 , 실제 양성인 데이터를 양성으로 올바르게 예측하고 싶다면 재현율을 중시하면 된다 .

6. F1-score 와 FB-score

FB-score : F1-score 에서 구한 정밀도와 재현율의 균형에서 계수 B( 베타 ) 에 따라 재현율에 가중치를 주어 조정한 지표이다 .

7. 매튜상관계수(MCC) : 사용 빈도는 높지 않지만 불균형한 데이터의 모델 성능을 적절히 평가하기 쉬운 지표이다 . 이 지표는 -1 부터 +1 사이 범위의 값을 가지는데, +1 일 때는 완벽한 예측 , 0 일때는 랜덤한 예측 , -1 일때는 완전 반대 예측을 한 것이다 .

2.3.4 이진 분류의 평가지표(2)

1. 로그 손실 : 양성인 확률을 예측할 때 사용되며, 분류 문제의 대표적인 평가지표이며 교차 엔트로피(cross-entrophy) 라고도 불린다. 로그 손실은 낮을수록 좋은 지표이다.

2. AUC : AUC(Area under ROC curve) 는 ROC 곡선의 하부 면적이다 . 이 때, ROC 곡선은 예측값을 양성으로 판단하는 임계값을 1 에서 0 으로 움직일 때의 거짓 양성 비율 (False positive rate)(FPR) 과 참 양성 비율 (True positive rate)(TPR) 을 (x,y) 축으로 나타내는 그래프이다.

  • 거짓 양성 비율 (FPR): 실제 거짓인 행 데이터를 양성으로 잘못 예측한 비율 ( 혼동행렬 요소로 FP/(FP+TN))
  • 참 양성 비율 (TPR): 실제 참인 행 데이터를 양성으로 올바르게 예측한 비율 ( 혼동행렬 요소로 TP/(TP+FN))
  • 모든 행 데이터를 정확하게 예측했을 경우 AUC 는 1 이다.
  • 예측값이 반대일 경우 (1.0- 본래 예측 값일 경우 ) AUC 는 1.0- 원래의 AUC 가 된다 .
  • AUC 는 양성과 음성을 각각 랜덤 선택했을 때 양성 예측 값이 음성 예측값보다 클 확률이라고 정의할 수 있다 .
  • AUC 의 값에 영향을 미치는 요소는 각 행 데이터 예측 값의 대소 관계 뿐이다 .
  • 양성이 매우 적은 불균형 데이터의 경우 , 양성인 예측 값을 얼마나 높은 확률로 예측할 수 있을지가 AUC 에 크게 영향을 미친다 .
  • 지니 계수는 Gini=2AUC-1 로 계산하며 AUC 와 선형 관계이다 . 따라서 평가지표가 지니 계수라면 평가지표가 AUC 라고 할 수 있다 .

2.3.5 다중 클래스 분류의 평가지표

다중 클래스 분류의 평가지표는 이진 분류의 평가지표를 다중 클래스 분류용으로 확장한 것으로 볼 수 있다.

1. Multi-class accuracy : 이진 분류의 정확도를 다중 클래스로 확장한 것으로, 올바르게 예측된 비율을 나타내는 지표이다.

2. Multi-class logloss(다중 클래스 로그 손실) : 로그 손실을 다중 클래스 분류로 확장한 것이다.

3. mean-F1, macro-F1, micro-F1: F1-score 을 여러 개의 클래스로 확장한 것으로, 다중 레이블 분류에 사용되는 평가지표이다.

  • mean-F1: 행 데이터 단위로 F1-score 를 계산하고 그 평균값이 평가지표 점수가 된다 .
  • macro-F1: 각 클래스별 F1-score 를 계산하고 이들의 평균값을 평가지표 점수로 삼는다 .
  • micro-F1 : 행 데이터 x 클래스의 각 쌍에 대해서 TP, TN, FP, FN 중 어디에 해당하는지를 카운트한다. 이러한 혼동행렬에 근거하여 F 점수를 계산한다.

4. QWK(quadratic weighted kappa): 다중 클래스 분류에서 클래스 간에 순서 관계가 있을 때 사용한다. 이 때, 완전한 예측일 때는 1, 랜덤 예측일 때는 0, 랜덤보다 나쁜 예측일 때는 마이너스 값이 된다.

1. [email protected](Mean Average Precision at (@) K): 각 행 데이터가 하나 또는 여러 클래스에 속할 때, 포함될 가능성이 높은 것으로 예측한 순서대로 K개의 클래스를 예측값으로 삼는다. 마찬가지로 완전한 예측을 실시하면 1, 완전히 잘못된 예측을 실시하면 0 이 된다.

2.4 목적함수

  • 모델 학습 시 최적화되는 함수이다.
  • 평가지표와 모델 학습에 사용되는 목적함수가 일치하면 이해하기가 쉽고, 그대로 평가지표에 대해 최적화된 예측값을 출력하는 모델이 되었다고 말할 수 있다.
  • 모델이나 라이브러리에서 제공하지 않는 평가지표와 목적함수를 사용자가 정의해 사용할 수 있다 . 이를 사용자 정의 목적함수라고 한다.

2.5 평가지표의 최적화

1. 평가지표에 최적화된 예측값은 다음과 같은 방법으로 출력할 수 있다.

  • 간단하고 올바른 모델링 실행
  • 학습 데이터를 전처리하고 다른 평가지표를 최적화
  • 다른 평가지표를 최적화하고 후처리
  • 사용자 정의 목적함수를 사용
  • 다른 평가지표를 최적화하고 학습 조기 종료

2. 양성(1) 이나 음성(0) 레이블을 제출하는 평가지표에서는 두 레이블 사이를 결정하는 최적의 임곗값을 결정하는 것이 중요하다. 최적의 임곗값은 다음과 같이 구할 수 있다.

  • 모든 임곗값을 알아내는 방법: 0.01 부터 0.99 까지 0.01 씩 증가시키며 모든 임곗값을 조사한다 .
  • 최적화 알고리즘을 이용하는 방법: scipy.optimize 모듈을 이용하여 임곗값을 인수로 점수를 반환하는 함수를 최적화한다 .
  • 이 때, OOF(out of fold) 로 최적화를 수행하면 임곗값 변화에 차이가 있거나 점수에 달라지는 현상을 확인할 수 있고 , 복잡한 최적화를 수행할 때 과도한 평가 점수가 되는 것을 피할 수 있다.

3. 분류 문제에서 평가지표를 최적화하려면 타당한 예측 확률이 필요하나 왜곡되는 경우가 생길 수 있다. 대표적으로 데이터가 충분하지 않은 경우로그 손실을 목적함수로 사용하지 않는 모델 일 경우 이러한 현상이 나타난다. 예측 확률을 조정하기 위해서 다음과 같은 방법이 사용된다.

  • 예측값을 n 제곱
  • 0 이나 1 에 극단으로 가까운 확률을 제외
  • 스태킹
  • CalibratedClassifierCV

2.6 데이터 정보 누출

데이터 정보 누출을 다음과 같은 2가지 의미가 있다.

  1. 경진 대회 설계의 문제 : 대회에서 사용 금지된 정보가 의도치 않게 새어나가 경진 대회에 사용되는 상황을 일컫는다.
  2. 모델 구축의 기술적인 문제 : 검증 구조를 잘못 잡아 부당하게 높은 점수가 나온다.

위의 경우와 같이 데이터 정보가 유출되는 경우 캐글의 Discussion 페이지에 해당 정보를 공유하여 다른 참여자에게 알릴 수 있다.

상장기업분석

PER(Price Earning Ratio) 전일자 보통주 수정주가 / 최근 결산 EPS(주당순이익)
* EPS = 당기순이익 / 수정평균발행주식수
* 최근결산은 2021/12 (연간) 기준임. PER - 12M PER 평균트루범위 지표 평균트루범위 지표 전일자 보통주 수정주가 / 12개월 Forward EPS 12M PER - 업종 PER 시장대표업종||SUM(구성종목 시가총액)/SUM(구성종목 당기순이익)
* 전일자 보통주 시가총액 기준
* 당기순이익은 최근결산 2021/12 (연간) 기준임. 업종 PER 48.46 PBR(Price Book-value Ratio) 전일자 보통주 수정주가 / 최근 결산기 BPS(주당순자산)
* BPS=(지배주주지분-자기주식) / 무상조정기말주식수(우선주 및 자사주 포함)
* 최근결산은 2021/12 (연간) 기준임. PBR 1.71 배당수익률 *100
* 최근결산은 2021/12 (연간) 기준임. 배당수익률 -

트루윈 코스닥 제조 KOSDAQ

주가추이, 내부자거래

주가추이,내부자거래 차트: 자세한 내용은 클릭후 팝업창 참고

외국인 보유비중, 시가총액

외국인 보유비중,시가총액 차트 : 자세한 내용은 클릭후 팝업창 참고

상대수익률 * 상대수익률은 조회시작일의 값을 100포인트로 변환하여 산출된
값입니다.
* 특정일의 상대수익률 포인트는 (특정일의 지수 및 주가/조회 기준
시작점의 지수 및 주가) * 100 입니다.

상대수익률

상대수익률 차트 : 자세한 내용은 클릭후 팝업창 참고

2,675/ +60 5,025/ 2,485 -6.47 / -26.31 / -40.82 / -28.76

시가총액(상장예정포함) 시가총액(상장예정포함): 종가*(상장주식수+상장예정주식수), (보통주+우선주)
시가총액(보통주)+시가총액(우선주)
* 상장예정주식수: 유무상증자, 주식배당의 권리락일(배당락일)이 지났으나, 상장되지 않은 주식수 시가총액 (상장예정포함,억원)

44,332,472/ 0

유동주식수/비율 유동주식비율 = 유동주식수 / 지수산정주식수 * 100.
유동주식수 = 지수산정주식수-(최대주주등(본인+특별관계자)+우리사주+자사주+보호예수+정부기관(5%이상)+해외DR). 유동주식수/비율 (보통주)

실적이슈
잠정실적발표예정일 예상실적 (영업이익, 억원) 3개월전예상실적대비 (%) 전년동기대비 (%)
- - - -

운용사별 보유 현황

운용사별 보유 현황
운용사명 보유수량 시가평가액 상장주식수내비중 운용사내비중
관련 데이터가 없습니다.
  • * 컨텐츠의 보유 수량, 상장주식 내 비중, 운용사 내 비중 값은 최근 분기말에 공시한 공모펀드 보고서 기준이며, 보유수량 기준 상위 10위 까지 운용사를 보여줍니다.
  • * 위 내용은 금융감독원 지분공시보고서 기준으로 작성되었으며 (단, 자기주식 현황은 별도관리), 주주명은 지분율 상위 6개 까지만 보여집니다.
  • * 보통주 지분율이 5%미만이고, 임원이 아닌 주주는 지분공시제출 제외 대상으로서 표시할 수 없습니다.

주주구분 현황

  • * 주주 구분자별 지분율은 서로 중복되지 않습니다.

신용등급현황 기업어음 (CP)

신용등급현황 기업어읍(CP)
KIS KR NICE
관련 데이터가 없습니다.

신용등급현황 회사채(Bond)

주주현황
KIS KR NICE
B- [2022/06/30] B- [2022/06/28]

투자의견 컨센서스

주주현황
투자의견 목표주가 EPS PER 추정기관수
관련 데이터가 없습니다.
  • * 1=Sell, 2=U/Weight, 3=Neutral, 4=Buy, 5=S/Buy
  • * EPS, PER 은 FY1에 대한 증권사 평균 추정실적임.

투자의견 및 목표주가

투자의견,적정주가,수정주가 차트 : 자세한 내용은 클릭후 팝업창 참고

투자의견 분포

관련 데이터가 없습니다.

Business Summary

주요 제품군의 지속적인 매출 성장세

  • 동사는 자동차에 적용되는 IR센서, APS(엑셀레이터 페달센서), BPS(브레이크 페달센서), TPS(엔진공기밸브 센서) 등을 개발, 제조 및 공급하고 있음. 자동차의 전장화에 따른 자동차 전장 제어의 핵심기술인 반도체(Asic)의 설계기술을 보유함. 또한 적외선 열화상 센서 및 카메라 모듈 관련 핵심 원천기술을 보유하고 있음. 매출구성은 제품 57.44%, 상품 6.86%, 기타 35.7%로 이루어져 있음.
  • 2022년 03월 전년동기 대비 별도기준 매출액은 0.4% 감소, 영업이익은 70.9% 증가, 당기순이익 17.8% 증가. 한화인텔리전스는 성능 테스트 등 시운전 기간을 거쳐 2022년 4분기 평균트루범위 지표 내에 열화상 카메라의 부품인 QVGA급 열 영상센서부터 생산에 돌입할 예정, 2023년 본격적인 차량 전장 센서 생산이 목표. 2022년부터 동사의 매출 품목 중 적외선 열영상 카메라의 적용 범위를 넓혀 실적 상승세를 이어갈 것으로 예상.

글로벌 경쟁사 비교

트루윈 1,186 억원 (100점만점기준) 트루윈 396 억원 (100점만점기준) 트루윈 - (100점만점기준) 트루윈 -20.79 % (100점만점기준) Suminoe Textile 1,223 억원 (100점만점기준) Suminoe Textile 7,774 억원 (100점만점기준) Suminoe Textile 평균트루범위 지표 37.67 배 (100점만점기준) Suminoe Textile 1.00 % (100점만점기준) China First Capital Group 1,212 억원 (100점만점기준) China First Capital Group 2,208 억원 (100점만점기준) China First Capital Group - (100점만점기준) China 평균트루범위 지표 First Capital Group % (100점만점기준) Inoue Rubber (Thailand) 1,193 억원 (100점만점기준) Inoue Rubber (Thailand) 1,568 억원 (100점만점기준) Inoue Rubber (Thailand) 14.83 배 (100점만점기준) Inoue Rubber (Thailand) 6.14 % (100점만점기준)


0 개 댓글

답장을 남겨주세요