Archive for February 21st, 2017

February 21, 2017: 9:47 pm: bluemosesErudition

유발 하라리의 <사피엔스>는 믿음에 관한 글이다. “이념이란 초월론적 가상이다. 또 칸트는 이념을 ‘구성적 이념’과 ‘규제적 이념’으로 나누었다. 역사의 이념은 규제적 이념이다. 그것은 ‘구성적 이념’과 달리 실현되지는 않지만, 우리가 그것에 다가가려고 노력하는 지표로서 계속 존재한다.”(가라타니 고진)

: 8:03 pm: bluemosesErudition

의료분야 O.R _ Cochrane

사회과학 D/R _ Campbell

: 6:15 pm: bluemosesErudition

Comprehensive Meta Analysis Version 3.0

: 4:54 pm: bluemosesErudition

The R Project for Statistical Computing

: 3:09 pm: bluemosesErudition

Confidence Interval

: 2:46 pm: bluemosesErudition

“효과 크기란 평균치 간의 차이를 표준편차와의 비율로 나타내는 것을 말한다. 즉 효과 크기는 분석 결과의 강도를 말하고, 효과 크기의 척도로는 일반적으로 집단 간 평균 차이를 표준편차로 나눈 값을 사용한다. … 효과 크기는 가설검증에서 통계적 검증력에 영향을 주는 요인으로 집단 간의 평균 차이가 커질수록 즉 효과 크기가 클수록 모집단 가설검증의 검증력을 높이게 된다.”

“각 개별 연구들에서 나온 결과들을 통계 절차를 통해 표준화 시킨 것을 의미한다. 효과 크기는 여러 가지로 나타낼 수 있으며 코헨(J. Cohen)의 경우 상관연구에서는 상관계수 r로, 두 집단의 실험일 경우에는 d로, 분산분석일 경우에는 f로 나타낸다. 여기서 d는 평균 차이를 공통의 표준편차로 나눈 값이고, f는 주 효과일 경우 표준화된 평균들 간의 표준편차이고, 상호작용일 경우 표준화된 상호작용 효과 간의 표준편차이다. 효과 크기가 0이라는 것은 실험집단의 평균과 통제집단의 평균이 같다는 뜻이고, +값이 나왔다는 것은 실험집단의 평균이 통제집단의 평균보다 크다는 것을 의미하고, -값은 그 반대의 경우이다. 즉 이 값이 크다는 것은 결국, 실험의 효과가 높다는 것을 의미하고 0이라는 것은 효과가 없다는 것을 의미한다. 대개 효과 크기가 .80 이상일 경우 효과가 높다고 본다.”

“효과 크기는 ‘standardized measure of the size of the mean difference or the relationship among the study groups’이라고 정의할 수 있다. 즉, 비교하려는 집단들 사이의 차이 혹은 관계를 나타내는 ‘표준화된 지표’를 의미한다. 효과 크기가 0이라는 것은 비교 집단들 사이의 차이(혹은 연관성)가 없다는 것을 의미하여 귀무가설 하에서 “효과 크기=0”이 된다. 평균치 비교의 경우 비교하려는 집단 사이에 평균 차이가 클수록 효과 크기는 커지게 된다. 효과 크기의 쉬운 예를 들면, 귀무가설 하에서 남녀의 성별의 비율이 50:50이라고 할 때, 어떤 집단에서 남녀의 비율이 53:47이라고 하면 효과 크기는 3%가 된다. 또한 전 인구의 평균 IQ가 100이라고 할 때, 어떤 집단에서의 평균 IQ가 105라고 하면, 효과 크기는 5 IQ unit이 된다. 개별 측정 단위에 영향을 받지 않도록 효과 크기를 그 산포 정도로 나누어 단위에 상관 없이 사용할 수 있도록 한 index가 사용되며, 이를 효과 크기 인덱스(effect size index) 혹은 표준화된 효과 크기(standardized effect size)라고 한다.”

: 2:19 pm: bluemosesErudition

“다층모형(HLM)의 근간은 분산분석이다.”

: 12:36 pm: bluemosesErudition

기계학습의 일종인 “딥러닝은 2006년 캐나다 토론토대학의 제프리 힌튼 교수가 그 개념을 발표하면서 처음 알려지기 시작했습니다. 원리를 간단히 말하면, 기존의 다층 퍼셉트론 방식이 여러 층을 다 지난 후에 역-전파(Back propagation) 방법으로 결과를 내는 방식인 데 비해, 한 층 한 층을 ‘제한된 볼츠만 기계(Restricted Boltzman Machine, RBM)’ 방식으로 따로 따로 학습하여 각 층마다 비지도 학습(Unsupervised learning)을 일으킨 후, 최종적으로 각 층의 결과를 역-전파 방법으로 도출해 내는 방식입니다.”

: 12:20 pm: bluemosesErudition

煩惱 번뇌, 樊籠 번롱

: 12:15 pm: bluemosesErudition

주사(走査). 텔레비전이나 사진 전송 따위에서 화면을 여러 개의 점으로 세분하고 그 점을 전기 신호로 바꾸는 일