티스토리 뷰

카테고리 없음

머신 러닝

조르시 2023. 10. 22. 12:29

알파고 이후에 머신러닝에 대한 일반인의 관심이 증대되었다. 빅데이터 시대가 지나고 머신러닝이 대세라고 한다. 하지만 우리나라에서 머신 러닝에 대해 번역하지 않고 단독으로 글을 쓸 사람이 없는지 의문이다.  좋은 책이니까 번역의뢰가 들어갔을 것인데,번역자의 국어실력에 문제가 있는 것인지, 교수의 신분으로 학생을 부려먹은 것인지 우려된다. (게다가 이 책을 자신의 교재라며 학생들에게 구입하게 하는 것은 아닌지 더욱 우려된다.)번역이 1대1 대응의 직역을 의미하는 것은 아니다. 머신러닝이라 번역기를 돌리지 않았나 하는 의구심이 들 정도이다.  1. 이 책은 가장 종합적인 머신 러닝 도서 중 하나로 통일성 원리의 시각에서 벗어나지 않으면서도 머신 러닝이 가진 믿을 수 없는 풍부함을 잘 정당화한다. 무슨 말이지? 영어로 어떻게 써 있었는지 잘 유추할 수 있을 정도이다. fully justifies the incredible richness(abundance) of the machine learning.이었다면 머신러닝의 방대함을 충분히 보여준다 ...라고 의역해서 비난받을라나? 2. 명백한 사례에 기반을 둔 피터 플래치의 설명은 어떻게 스팸 필터가 동작하는지 설명하면서 시작한다.The explanation based on obvious cases starts...였다면 피터 플래치의 설명은 명백한 사례에 기반을 두었으며 스팸 필터가 어떻게 동작하는지에 대한 설명에서 시작한다... 가 약간 더 자연스럽지 않을까? 3. 이러한 접근 방식은 최소한의 기술적 지식을 통해 실용성 있는 머신 러닝의 즉각적인 소개를 제공한다. 하...정말...직역...이러한 접근 방식을 주어로 그대로 쓰고 있는 것도 그렇고, 즉각적인 소개를 제공한다는 말을 서술어로 쓰는 것도 부자연스럽다. 이러한 접근 방식을 통해 최소한의 기술적 지식으로 실용성 있는 머신 러닝에 대해 바로(즉시) 소개한다. 나도 번역작업을 해 본 적이 없고 머신 러닝도 모르는 사람이지만...내 판단은 이 책은 전문 번역인의 감수가 절실한 것 같다.

데이터를 이해하는 알고리즘의 예술과 과학이 책은 가장 종합적인 머신 러닝 도서 중 하나로 통일성 원리의 시각에서 벗어나지 않으면서도 머신 러닝이 가진 믿을 수 없는 풍부함을 잘 정당화한다. 명백한 사례에 기반을 둔 피터 플래치의 설명은 어떻게 스팸 필터가 동작하는지 설명하면서 시작한다. 이러한 접근 방식은 최소한의 기술적 지식을 통해 실용성 있는 머신 러닝의 즉각적인 소개를 제공한다. 이 책은 논리적, 기하학적, 통계학적인 모델들의 광범위한 주제들을 포함하며, 행렬 인수분해와 ROC 곡선 분석 같은 최신 주제를 다루었다. 특히 머신 러닝에서 특징들이 수행하는 중심적 역할에 대해 특별한 주의를 기울여 설명했다. 이 책은 입문서로써 새로운 표준을 확립할 것이다.-정립된 전문 용어들을 새롭고 유용한 개념들의 소개와 적절하게 조화시켜 활용했다.-적절한 예제들과 관련 사례들은 이 책의 필수적인 부분을 형성한다.-박스 안에 있는 내용들은 배경 지식 자료와 검토를 위한 지침을 제공한다.-각 장의 결론 부분에서는 요약과 추가적인 추천 문헌을 포함했다.-뒤쪽에 수록된 ‘기억해야 할 핵심 요점들’이라는 장을 통해 독자들은 책 내용을 쉽게 찾을 수 있다..

프롤로그: 머신 러닝 활용 실제 사례

1장. 머신 러닝 구성요소
1.1 작업: 머신 러닝으로 해결되는 문제들
1.2 모델들: 머신 러닝 출력 결과
1.3 특징: 머신 러닝의 워크호스
1.4 요약과 전망

2장. 이진 분류와 관련 작업들
2.1 분류
2.2 스코어링과 등급화
2.3 부류 확률 추정
2.4 이진 분류 문제와 관련 작업들: 요약과 추천 문헌

3장. 다-부류 분류 기법
3.1 두 부류 이상을 갖는 분류 문제
3.2 회귀
3.3 자율형과 기술형 학습
3.4 다-부류 분류 기법: 요약과 추천 문헌

4장. 개념 학습
4.1 가설 공간
4.2 가설 공간 경로
4.3 논리곱 개념을 넘어서
4.4 학습 용이성
4.5 개념 학습: 요약과 추천 문헌

5장. 트리 모델
5.1 판정 트리
5.2 랭킹과 확률 추정 트리
5.3 분산 감소를 통한 트리 학습
5.4 트리 모델: 요약과 추천 문헌

6장. 룰 모델
6.1 순서화된 룰 리스트 기반 학습
6.2 비순서화된 룰 집합 학습
6.3 기술적 룰 학습
6.4 1차 룰 학습
6.5 룰 모델: 요약과 추천 문헌

7장. 선형 모델
7.1 최소 제곱 방법
7.2 퍼셉트론
7.3 지원 벡터 기계
7.4 선형 분류기에서 확률 계산
7.5 비선형 커널 방법
7.6 선형 모델: 요약과 추천 문헌

8장. 거리 기반 모델
8.1 수많은 도로들…
8.2 이웃과 이그젬플러
8.3 최근접 이웃 기반 분류
8.4 거리 기반 군집
8.5 계층적 군집
8.6 커널에서 거리까지
8.7 거리 기반 모델: 요약과 추천 문헌

9장. 확률 모델
9.1 정규 분포와 기하학적 해석
9.2 분류형 데이터에서 확률 모델
9.3 조건부 우도 최적화에 의한 판별 학습
9.4 은닉 변수를 갖는 확률 모델
9.5 압축 기반 모델
9.6 확률 모델: 요약과 추천 문헌

10장. 특징
10.1 특징의 종류
10.2 특징 변환
10.3 특징 구성과 선택
10.4 특징: 요약과 추천 문헌

11장. 모델 앙상블
11.1 배깅과 랜덤 포레스트
11.2 부스팅
11.3 앙상블 랜드스케이프로 사상하기
11.4 앙상블 분류기 모델: 요약과 추천 문헌

12장. 머신 러닝 실험
12.1 무엇을 측정할 것인가
12.2 그것을 어떻게 측정할 것인가
12.3 그것을 어떻게 해석할 것인가
12.4 머신 러닝 실험: 요약과 추천 문헌

에필로그: 그다음엔 어디로 갈 것인가
기억해야 할 핵심 요점들
참고 문헌