My Logs (13)

반응형

 

 


요약 & 의견 

 

1) 어떤 분야든 Self-report 는 100% 신뢰할 수 없다. (물론 분야별 신뢰도의 차이는 있겠지만..)

2) 세대별로 인터넷을 이용하는 방식은 다르지만, 거짓 정보에 대한 취약하다는 사실은 동일하다.


Lateral reading 이라고 불리는 읽기 습관은 사실 관계 확인 절차에 있어 핵심적인 부분이다.  (Lateral reading: 온라인 정보 파편의 사실 관계나 출처 등을 확인하기 위해, 수많은 브라우저 탭을 열고, 검색을 하는 등의 방법으로 다양한 정보를 습득하는 것을 의미) Poynter, YouGov, Google 의 최신 연구 결과는 Z세대 (Generation Z) 는 이러한 테크닉을 이전 어느 세대보다 잘 활용하고 있다는 것을 보여주었으며, 이는 매우 희망적인 결과라고 할 수 있다. 

 

2022년 8월 11일, 구글 검색 엔진팀은 다양한 연령대 및 국가별로 잘못된 정보를 처리하는 방법의 차이점에 대한 연구를 발표하였다. 이 연구에서는 8,000명 이상의 연구 대상자에게, 온라인 콘텐츠 조사 방법에 대한 설문 조사를 실시하였으며, Z 세대와 (18-25세) 부터 Silent Generation (>68세) 에 이르는 연령대별로, 7개 이상의 국가별로 수집한 설문 결과를 종합하였다. 

 

기본적으로, 이 연구의 결론은 젊은 사람일수록 의도치 않게 거짓 정보 또는 오해의 소지가 있는 정보가 공유 됐을 가능성을 생각하는 경향이 있다는 것이다. 그들은 또한 "고급 팩트 체킹 기술" 을 활용하는데에도 능숙하다고 한다.

3분의 1 이상의 Z 세대 응답자들중 사실 관계 확인을 위한 lateral reading 에 많은 시간을 투자한다고 응답한 비율은 베이비부머 세대의 응답자들보다 2배 이상 높았다. 또한 3분의 1이상의 젊은 사람들은 검색 결과 비교를 위해 다양한 검색 엔진을 활용하며, 검색 결과 2페이지 이상을 탐색한다고 답했다. 

 

62% 의 응답자들은 매주 잘못된 정보를 접하고 있다고 답했다. Z세대, 밀레니얼 세대, X세대의 응답자들은 잘못된 정보 판단에 있어 다른 세대 보다 상대적으로 더 자신감이 있었으며, 그들의 가족 또는 친구가 잘못된 정보를 믿지 않을까하는 걱정하는 경향을 보였다. 

 

그러나, 연구 결과는 설문 조사 결과에 의존하고 있고, 이는 대상자들이 믿는 자신의 신념과 습관에 불과하다. Z 세대의 "실제 습관" 과 관련된 수치는 이와 상반된다. 팩트 체킹을 연구하는 스탠포드 Sam Wineburg 교수에 따르면, 인터넷에서 사람들이 어떻게 행동하는지를 파악하기 위해 "자기 응답" (self-report) 을 활용하는 것은, 그의 표현을 빌리자면 "bullshit" 이라고 한다.  

 

"사람들이 실제로 하는 것과 한다고 말하는 것의 괴리는 사회 심리학 초기 연구 자료에서 쉽게 확인할 수 있다." 그는 말했다. 그의 연구 결과는 누군가의 개입이 없는 경우, 젊은 사람들은 자발적으로는 lateral reading 이나 사실 관계 확인을 거의 하지 않는다는 것을 보여주었다. 

 

Wineburg 와 그의 연구팀에 의해 수행된 최근 연구에서는 대학생들을 대상으로 사실 관계 확인 기술에 관한 온라인 수업이 사실 관계를 확인 습관에 도움을 줄 수 있을지를 확인하였다. 수업 전 사전 조사에서 87명중 불과 3명의 학생만이 lateral reading 을 능동적으로 하는 것으로 확인 되었다. 

 

 "만약 사람들이 자발적으로 lateral reading 을 한다면, 우리는 훨씬 더 나은 곳에 살 수 있을 겁니다." Wineburg 는 말했다. 

 

좀 더 큰 규모의 연구에서는 3,000명 이상의 고등학생들이 온라인내에 존재하는 일련의 주장들을 조사하도록 요청 받았다. 결과는 더욱 암울했다. 50% 이상의 학생들이 러시아에서 촬영된 익명의 페이스북 동영상을 보고, 이것이 "부정 투표" 에 관한 강력한 증거라고 믿었다. 

 

Z 세대는 다른 세대들과 인터넷을 다른 방식으로 이용하는 것은 확실하다. 그러나 Z 세대도 이전 세대들과 마찬가지로, 지난 몇 년간 온라인 생태계를 악화시킨, 정보의 함정, 전략적인 잘못된 정보의 영향에 취약하다. 

 

출처: https://www.technologyreview.com/2022/08/11/1057552/gen-z-misinformation/

반응형
반응형

구입처: 리더스키 / 가격 39만원 

 

최근, 레오폴드 750R 을 약 4~5년 정도 사용하다가, 리얼포스 R3 를 구매하였다.

사각사각 거리는 키감이 너무 좋다. 저소음 모델 답게 소음이 작아 화상 회의 하면서 키보드를 사용해도 신경쓰이지 않을 것 같다. 레오폴드 750R 갈축의 소음과 비교하면 소음 크기는 체감상 거의 20~30% 수준인 것 같다. 

 

처음 키보드를 쳐봤을 때 드는 생각은 '생각보다 키압이 있는데?' 였다. 레오폴드 750R 갈축과 키압이 비슷한 것 같다. 하지만 계속 쓰다보니 불편한 정도는 아니었고, 오히려 이 정도가 딱 적당하다는 생각이 들었다. (물론 30g 는 아직 써보지 않아 써보면 생각이 바뀔 수도..) 

 

결론은 39만원이 아깝지 않을 정도로 마음에 든다!

 

블로그 쓰는 모습 (with Realforce R3)

구성품은 매우 단촐 (키보드/aa건전지 2개/usb연결잭) 

 

색감은 완전 새까만 블랙은 아니고, 자판 부분은 약간 챠콜색이다.  우측 상단 동그라미 부분은 전원버튼/블루투스 연결 기기를 선택할 수 있는 버튼이다. (총 4대 전환하면서 연결 가능, Fn+1~4 를 통해 전환할 수 있다.)

레오폴드와 크기 비교.. 리얼포스R3 가 텐키레스임에도 불구하고 생각보다 크기가 크다. 무게도 더 묵직하다. 

 

 

반응형

'My Logs' 카테고리의 다른 글

Wallpaper 콜렉션 사이트  (0) 2020.02.02
아이패드 에어 3세대, 애플펜슬 1세대 후기  (0) 2019.12.08
2018 한국 PyCon Tutorial 후기  (4) 2018.08.17
반응형

https://www.technologyreview.com/2022/06/28/1054270/2022-innovators-ai-robots/

* 이 포스트는 Mit technology review 의 22년 6월 28일 아티클 "AI's progress isn't the same as creating human intelligence in machines " 개인의 의견을 담아 리뷰한 글입니다. 

 

제목에서 알 수 있듯 위 아티클은 AI 의 발전은 기계로 인간 지능을 창조하는 것과 동일하지 않다. 고 말하고 있다. 

 

AI 의 두 분야

 

1. 인간의 지능을 컴퓨터에 구현하는 것 (Scientific AI)

2. 엄청난 양의 데이터를 모델링하는 것 (Data-centric AI

 

두 분야는 매우 다르다. 두 분야의 개념 차이만큼이나 두 분야의 야망과 최근 발전 상황이 다르다고 할 수 있다. 

이 기사의 요지중 하나는 최근 AI 분야의 발전은 대부분 Data-centric AI 에서 이루어졌다는 것이다. 

 

1) Scientific AI

인간 수준의 지능을 컴퓨터에 구현하기 위한 분야를 말하며, 1950년대부터 수십년간 이어져온 과학의 매우 심오하고 도전적인 과제라고 할 수 있다. 최근 컴퓨터에 구현된 인간 수준의 지능과 관련하여 Artificial general intelligence (AGI) 라는 용어를 많이 사용한다. 

 

2) Data-centric AI

1970년 현대와 비교하면 비교적 간단한 “decision trees” 모델을 만드는 것으로부터 시작되었으며, 최근에는 흔히 '딥러닝' 으로 일컫는 신경망 모델의 발전으로 큰 유명세를 얻고 있는 분야이다. Data-centric AI 는 “narrow AI” 또는 “weak AI" 라고도 불리지만, 최근 다양한 분야에서 여러 잠재력을 보여주었다. 

 

수많은 양의 학습 데이터와 컴퓨팅 파워가 결합된 딥러닝 모델은, 음성인식, 게임 등 다양한 분야의 "narrow tasks" 에 적용되어 왔다. AI 기반의 예측 모델은 수많은 반복 훈련을 통해 점점 정확도가 높은 모델을 만들어 내고 있다. AI 분야의 bottle neck 은 사람이 labeling 한 학습용 데이터가 필요하다는 것인데, 최근 AI 가 가상의 labeled 데이터를 만들어내는 분야도 크게 발전하고 있다.

 

GPT-3 는 언어 모델은 OpenAI 에 2020년에 발표한 모델로 이러한' 학습용 데이터 생성' 분야의 잠재력을 보여주었다. GPT-3 은 수십억개의 문장을 통해 학습되었으며, 그럴듯한 문장을 자동으로 만들어낸다. 또한 질문에 대해 정말로 사람이 쓸법한 문장으로 적절한 답을 하기도 한다. 

 

GPT-3 모델을 활용하고 있는 어플리케이션 예시 (분야별)

 

GPT-3 데모사이트 에는 다양한 분야의 GPT-3 open API 를 활용한 다양한 어플리케이션들의 리스트를 확인할 수 있다. 

 

300+ GPT-3 Examples, Demos, Apps, Showcase, and NLP Use-cases | GPT-3 Demo

GPT-3 is the world's most sophisticated natural language technology. Discover how companies are implementing the OpenAI GPT-3 API to power new use cases.

gpt3demo.com

 

그러나 GPT-3 에는 여러 문제점들도 존재한다. 

 

1) 비일관성: 같은 질문에 대해 답이 달라지는 경우가 있으며, 서로 모순되기도 한다. 

2) 할루시네이션: GPT-3 한테 1492년에 미국 대통령이 누구냐고 물으면 기쁘게 답변한다.

(실제로 1492년은 콜롬버스가 신대륙을 발견한 때로 미국 대통령은 존재하지 않았다.)

3) 높은 비용: 학습하는데 수많은 양의 데이터가 필요하고, 레이블이 있는 학습데이터는 비싸므로, 높은 비용이 요구되는 모델이다. 

4) 불투명성: 왜 GPT-3 가 그런 결론을 냈는지에 대해 종종 이해하기 어려울 때가 있다. 

5) 학습데이터 편향: GPT-3 는 학습 데이터를 흉내낸다. 학습 데이터는 웹으로부터 많이 수집되기 때문에 "toxic content" 가 많이 포함되어 있다. (sexism, racism, xenophobia 등등..) 

 

요약하자면, GPT-3 는 신뢰하기 어려울 때가 많다. 즉, 인간 수준의 지능을 가지고 있는 것은 아니다.

 

이러한 한계점에도 불구하고 연구자들은 GPT-3 의 multi-modal versions 을 연구하고 있고 (multi-modal 이란 커뮤니케이션 채널이 여러개라는 의미이다.), 그 중 하나가 DALL-E2 와 같은 모델이다. DALL-E2 는 자연어를 인풋으로 받아, 실제적인 이미지를 생성하는 모델이다. GPT-3 는 인풋으로 텍스트를 받아 텍스트를 아웃풋으로 보여주는 모델이라면, DALL-E2 는 인풋으로 텍스트를 받아 이미지를 아웃풋으로 보여준다. 

 

DALL-E2: 'an astronaut lounging int a tropical resort in space' 라를 문장을 vaporwave 스타일로 생성한 이미지이다.

 

 

AI 개발자들은 이러한 DALL-E2 모델을 로봇, 생명과학, 화학 등 다양한 분야에 어떻게 적용할 수 있을지를 고민하고 있다. 

 

Data-centric AI 의 한계점중 하나는 이러한 시스템들이 인간에 의해 만들어진다는 것이다. 어떠한 문제를 formulation 하고, 이를 해결하는 시스템을 설계하고 만드는 것은 인간이다. 피카소의 유명한 말이 있다. 

 

 “Computers are useless. They only give you answers.” 

 

기술을 기반으로한 인간의 발전은 좋은 질문을 던지는 것에서부터 오는 경우가 많다고 생각한다. 예를 들어, 자율 주행차를 생각해보면, "자동차 운전 조작을 자동화할 수 있지 않을까?" 라는 질문에서 시작됐을 것이다. 이러한 질문을 해결하기 위한 방법을 공학적으로 설계하고, 여기에 AI 기술을 활용하여 "자율 주행차" 가 세상에 나올 수 있었을 것이다. 

 

현재의 AI 는 질문에 대한 좋은 답을 줄 수 있지만, 새롭고 창의적인 질문을 던지거나, 해결 방법을 설계하지는 못한다. AI 가 "자동차 운전의 자동화" 를 생각하고, 이를 어떻게 구현할지 제시하지는 못하는 것처럼 말이다. 아직까지 컴퓨터는 답을 줄 뿐, 질문을 만들지는 못한다. 

 

AI 시스템이 좋은 질문을 만들게 될 날이 오는 것을 기대할 것이다. 먼 훗날이 될 수 있겠지만 그 날이 오면, 오래된 과학의 도전적인 과제 중 하나인 인간 수준의 지능을 이해하고 구현하는 것에 대하여 해결의 실마리를 찾을 수 있을지도 모른다. 

반응형
반응형

MAC OS 환경변수 설정하기

 

텍스트 파일이 자동으로 실행됨MAC Os에서 터미널이 실행될 때, ~/.zshrc 라는 텍스트 파일이 자동으로 실행됨

예를들어, 홈폴더 아래 anaconda/bin 폴더를 PATH 환경변수에 추가하고 싶은 경우, 아래 문구를 ~/.zshrc 에 넣어주면된다.

export PATH="/Users/username/anaconda3/bin:$PATH"

 

또는 Linux 와 같이 /etc/profile 또는 ~/.bash_profile 에 환경 변수를 넣는것도 좋은 방법이다. 이후에 ~/.zshrc 파일을 열고

source /etc/profile
source ~/.bash_profile 

 

문구를 쓰면 위 텍스트 파일을 터미널을 열면 자동으로 명령 실행하기 때문에 환경변수로 반영된다.

반응형
반응형

Wallpaper 콜렉션 사이트


마이크로소프트의 좋은 배경화면들을 무료로 받을 수 있는 사이트를 알게되어 공유합니다 (https://wallpaperhub.app/). 이 사이트가 좋은점은 다양한 기기에 맞는 해상도로 사진들을 다운로드를 받을 수 있습니다. 콜렉션 페이지에 가면 Microsoft 의 서피스 랩탑 등 다양한 기기의 디폴트 배경화면 콜렉션을 볼 수 있습니다. 서피스 Wallpaper 에 좋은 사진들이 많은듯합니다. 



반응형
반응형

아이패드 에어 3세대 + 애플펜슬 1세대 후기

 

구매목록 

 

  • 애플펜슬 1세대
  • 아이패드 에어 3세대 64GB, WIFI
  • 뷰씨 퓨어슬림 케이스
  • 뷰씨 애플펜슬 수납 자카드 케이스 
 

아이패드+펜슬+케이스 전부 다 해서 총 71만원 정도에 구입하였습니다. 

 

 

 

아래는 뷰씨 퓨어슬림 케이스를 장착한 모습입니다. 뷰씨에서 구입한 두 케이스 모두 만족중입니다. 매우 슬림한 케이스라 수납에 편리하고 가볍습니다. 

 

 

 

 

 

전반적인 후기

 

아이패드 없이 살았던 시간이 아쉬울 만큼 만족하고 있습니다. 특히 pdf 파일로된 자료나 책, 논문 등을 읽어야할 일이 많은데, 일일히 자료를 프린트 하지 않고 어플을 이용해 읽고, 요약할 수 있다는 것이 이렇게 편리하다라는 것을 실감하고 있습니다. 개인적으로 대학생, 대학원생 필수템이라고 생각합니다. 

 

아이패드 에어의 필기감

 

개인적으로 아주 만족합니다. 지인의 프로 2세대로 필기를 해봤었는데, 에어3와 프로2는 개인적으로 필기감의 차이가 크지 않은 것 같습니다. (다만 프로 3세대는 이용해보지 않아서 프로 3 과의 차이는 잘 모르겠습니다.) 저는 힐링쉴드 스케치 필름을 이용 중인데 확실히 생패드에 필기하는 것과 종이질감 필름에 필기하는 것은 차이가 큰 것 같습니다. 필기에 주로 활용하시는 분은 종이질감 필름 부착을 강추합니다. 

 

추천앱

- 리퀴드텍스트 (LiquidText) 

 

 

pdf 파일 형태의 책, 논문을 읽기 좋은 앱입니다. 저는 읽으면서 나름대로 요약하는 것을 좋아하는데 이러한 목적에 잘 맞는 앱이라고 생각합니다. 저와 비슷하신 분은 추천합니다.

반응형

'My Logs' 카테고리의 다른 글

Realforce R3 저소음 45g 균등 텐키레스 구매  (0) 2022.08.06
Wallpaper 콜렉션 사이트  (0) 2020.02.02
2018 한국 PyCon Tutorial 후기  (4) 2018.08.17
반응형


2019 대한의료인공지능학회 Summer School 참석후기


2019 대한의료인공지능학회 Summer School 에 참석하였습니다. 참여자들을 조사했는데, 대략 전체 참석자중 MD 가 절반정도, 나머지 연구원 및 학생이 절반 정도되었던 것 같습니다. 각 교육 세션은 50분에서 1시간 30분사이로 진행되었습니다. 


1일차에는 의료인공지능을 하기 위한 방법론들을 주로 다루었습니다. 역시 현재 의료인공지능 분야의 state-of-the-art 인 deep learning 에 대한 내용이 중점이었습니다 (물론 이를 설명하기 위한 수학적, 통계적 개념은 많이 다루었습니다). 교육 내용은 deep learning 을 기초부터 다루지는 않았고, deep learning을 의료 데이터에 적용할 때 발생할 수 있는 주요 이슈들에 대해서 개념부터 최근 연구 동향까지 다루었습니다. 현재 연구원으로서 엔지니어링을 의료 데이터에 적용하고 있는 저로서는 발표자 분들과 같은 관심선상에서 많은 것을 배울 수 있었습니다. 


Recent updates of ML/DL/DCNN 


deep learning 중 특히 convolutional neural network (cnn) 을 의료데이터에 적용할 때 생기는 다양한 이슈들에 대해 개념부터 시작해 최근 연구 동향까지 빠르게 다루는 시간이었습니다. 발표자 분께서는 하나의 개념에 대해 깊게 설명하지는 않았으나, 앞으로 관련 개념을 찾아볼 때 충분한 guide 가 될 수 있을 정도로 잘 설명을 해주셨습니다. 


이 세션에서는 아래와 같은 주제들을 다루었습니다. 

  • Transfer learning and domain adaptation
  • Weakly supervised learning
  • Self-supervised learning
  • Explainability
  • Model compression and architecture search
  • Other issues

위 주제들은 모두 의료 인공지능 분야에서 중요한 이슈가 되는 주제들이라고 생각합니다. 


Recent updates of GANs: basic to advanced


아직 연구에 GAN 을 활용하지 않고 있는 저로서는 GAN 의 개념을 잘 모르고 있었는데, 기본 개념과 초기 GAN 의 문제점, 그리고 발전사에 대해 이해하기 쉽게 잘 설명을 해주셨습니다. GAN 은 Generative + Adversarial 두 가지 컴포넌트로 나뉘며, Generator 가 생성된 데이터를 Adversarial 가 진짜 데이터인지 Generator가 생성한 데이터인지를 평가합니다. 이 과정을 반복하면서 Generator 는 Adversarial 을 속일 수 있을 만큼 진짜 같은 데이터를 생성하내게 됩니다. Ian goodfellow가 제안한 초창기 GAN  모델에서 advanced 된 WGAN, CGAN, InfoGAN, Cycle GAN, GauGAN 등의 최근 모델도 다루었습니다. 특히 Cycle GAN 이나 GauGAN 등을 통해 Style transfer를 할 수 있고, 이러한 개념을 활용해 MRI 데이터를 CT 데이터로 변환할 수 있다는 내용이 흥미로웠습니다. 또한 U-net 과 같은 Semantic segmentation model 뿐 아니라, GAN 을 통해서도 segmentation 을 할 수 있다는 사실도 알게 되었습니다. 의료 인공지능 분야에 관심을 갖으며, 아직 GAN 을 많이 접해보지는 않았는데, 이번 강연을 계기로 GAN 관련 내용을 앞으로 공부를 해 보아야겠습니다. 


Mathematical tools in deep learning: A primer


이 세션에서는 deep learning 에서 쓰이는 다양한 수학적 개념에 대해 훑어주셔습니다. 각종 커뮤니티에서 딥러닝을 하기 위해서 필요한 선행지식으로, 수리통계학, 확률론, 선형대수, 컴퓨터 알고리즘 등을 꼽고 있습니다. 물론, 이러한 분야에 대한 개념이 딥러닝을 이해하는데 있어서 큰 도움이 되는 것은 사실입니다. 하지만 딥러닝을 하기 위해서 이러한 학문을 처음부터 끝까지 새로 배우는 것은 큰 시간과 비용이 소모됩니다. 특히 수학 관련해서는, 딥러닝에 활용이되는 수학적인 내용중 핵심적인 부분만 빠르게 학습하는 것이 시간을 줄이는 법일 것입니다. 이러한 관점에서 강연자분은 딥러닝에 활용되고 있는, 수학적인 개념을 집어서 강연을 해주셨습니다.  또한 강연자분은 Dive into deep learning 을 딥러닝 처음 학습 교재로 추천해주셨습니다 (https://www.d2l.ai). 개인적으로 저도 Ian good fellow 의 딥러닝보다 더 딥러닝 입문서로 추천하는 책입니다. Ian goodfellow 의 저서는 다소 교과서적이고 딱딱한 면이 있지만 이 책의 경우 보다 insightful 하게 설명을 하고 있고, 코드도 함께 나와 있어 입문서로써도 좋으며 어느정도 딥러닝에 경험이 있는 사람에게도 충분히 도움될 것으로 생각합니다.  


Explainability


다음은 Unist XAIC 그룹에서 Explainability 에 대해 다루어주셨습니다. Interpretability와 Explainability의 차이와 그것이 의료에 있어서 왜 중요한지에 대해 조금 더 구체적으로 알 수 있었고, 이를 구현하는 기술적인 방법에 대해 파악할 수 있었던 시간이었습니다. Interpretability 란 모델을 해석할 수 있는 것, 즉 딥러닝을 예로 들면, 각각의 layer 와 node가 무엇을 하는지에 대해 이해하는 것으로 볼 수 있습니다. Explainability란 왜  모델이 그러한 판단 (decision-making)을 내렸는가에 대해 reasonable 한 설명을 할 수 있는가에 대한 것입니다. 딥러닝은 black box의 성격이 강한 over-hyperparameterized 된 모델입니다. 초창기에는 모델이 어떻게 돌아가는지보다는 성능, 즉, 도메인 데이터에 대해 잘 working 하는 것이 중점이었습니다. 특히 하지만 의료 분야의 경우 이러한 decision-making이 매우 중요한 분야 중 하나이기 때문에  Interpretability와 Explainability가 중요한 이슈일 것입니다. 


Explaining Deep Neural Networks

  • Input Attribution Method (TU Berlin)

딥러닝 모델의 예측 결과에 대해 시각적 해석을 돕는 방법입니다. LIME, CAM, Layer-wise Relevance Propagation(LRP) 등이 유명한 방법입니다. 여기서 LIME 과 CAM 의 경우, CNN 에만 사용할 수 있는 모형이고, LRP 의 경우 모든 Neural Net 에 사용할 수 있는 방법입니다. 



  • XCAD: Explainable Computer Aided Diagnosis
  • Dissecting Deep Neural Networks (MIT)
  • Generating Examples inside of Deep Neural Networks (UNIST)


Explaining by Combining Explainable Models

  • Automatic Statistician (MIT/Cambridge)
  • Relational Automatic Statistician (UNIST)


Automatic statistician 은 학습된 모델을 여러개의 설명 가능한 모델로 분할하여 설명하는 기법입니다. 


https://www.automaticstatistician.com/index/



Finding Local Explanations (Model Agnostic Methods)

  • Counterfactual Generation (Toronto)
  • SHapley Additive exPlanation (SHAP)


위 방법은 모델 불가지론적 방법이라고 부르는 모델에 상관없이 어떤 모델이든 설명 가능하도록 하는 방법들입니다. 즉, 신경망 뿐만 아니라 다른 머신러닝 모델에도 적용할 수 있습니다. 


Uncertainty


다음은 루닛의 김민철님께서 딥러닝 모델의 Uncertainty 에 대해 다루어주셨습니다. 아래 3가지 내용에 대해 설명하였습니다. 


  • Calibration
  • Uncertainty within a model
  • AUC confidence interval


Calibration 의 정의는 다음과 같습니다.


the probability associated with the predicted class label should reflect its ground truth correctness likelihood.


즉, 예측 모형에서 클래스를 Probability 를 의미하는 값을 통해서 예측할 때, 그것이 실제 정답일 정도 (likelihood) 를 나타내야한다는 것입니다. 모델의 Calibration 을 점검하는 방법은 validation set 에서 probability 가 validation set에서 accuracy 와 비슷한지를 보면 되는데 이 부분에 대해서는 제 이전 포스트를 참조드립니다. Calibration 이 잘되었는지를 측정하기 위해 Expected Calibration Error (ECE) 가 기본적으로 쓰입니다. 


Calibration 이 잘안되는 문제는 training 도 중 NLL (Negative log likelihood) Overfitting이 생기기 때문에 일어납니다. 이러한 calibration 문제를 해결하기 위해 가능한 방법은 다음과 같습니다. 


The reasons for uncertainty

만약 calibration 이 잘 완료된 모델이 어떤 validation 데이터에 대해 0.95 라는 값을 내보냈을 때, 95 % 확률로 해당 label 이라는 뜻입니다. 하지만 일반적으로 모델에 사용하는 데이터는 population data가 아니라 sample 이며, "모델" 을 사용하는 것이기 때문에 이 값을 얼마나 믿어야할지에 대한 고민이 필요합니다. 

두 번째 주제인 Uncertainty within a model 에서는 이러한 모델이 만들어낸 output 의 불확실성을 어떻게 측정하는지에 관한 것입니다. 즉, 모델을 사용하고, sample 을 사용하는 것으로부터 오는 불확실성을 어떻게 제어할 것인가에 관한 것입니다. Linear regression 의 경우 예측값에 대한 분산을 구해서 confidence interval 을 수학적으로 구할 수 있지만 non-linear 에는 분산을 구할 수가 없습니다. 

따라서 bayesian 방법을 통해 모델의 파라미터의 분산을 추정하고 이를 통해 예측값의 분산을 구하는 방법을 주로 사용하게됩니다. 즉, 신경망의 모든 weight 에 사전 분포가 존재한다고 가정합니다. 이를 bayesian neural network 라고 합니다. 

Dropout as Bayesian Approximation


이를 실제로 하는 방법 중에 drop-out 을 이용하는 방법이 있습니다. 아래와 같은 방법으로 model uncertainty 를 구하게됩니다. 


1. Apply Dropout in all layers

2. Train the NN with SGD

3. During the test phase

a. Inference multiple times

b. Aggregate the result to approximate the posterior distribution


ref. Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning (ICML 2016)


요약


Why uncertainty?

  • sample vs population
  • Model parameter and complexity
  • Non linear models like Deep NN have no closed form solution to model variance
  • Bayesian models offer a tractable way to approximate uncertainty within the model


AUC and Confidence Interval


classification 문제에서 label 을 확률값 또는 스코어를 의미하는 값을 통해 예측할 때 주로 사용되는 measure는 Area under curve (AUC) 입니다. 특히 의료분야에서는  모델이 case 와 control을 얼마나 잘 discrimination 할 수 있는지에 대해 default로 사용되는 measure 라고 볼 수 있습니다. 그리고 AUC 의 한 가지 중요한 성질은 Mann-Whitney-Wilcoxon 2-sample U-statistic 과 같다는 것입니다. (Wilcoxon 1945; Mann and Whitney 1947).



왜 그런지에 대해 생각하지 않고, AUC와  U-statistic 이 같은 것이라면, AUC 는 다음과 같은 뜻을 같습니다. 


"disease, non-disease 인 sample 각각 random 하게 하나 씩 뽑았을 때, disease 인 사람이 더 클 확률"


AUC의 confidence interval 을 이러한 Wilcoxon U-stat 이 sample size 가 클 때 정규분포를 따른다는 사실을 이용해 구할 수 있습니다 (Hanley and McNeil (1982))


만약 AUC의 95 % confidece interval 이 (a, b) 인 경우에 이를 어떻게 해석하는 방법은 다음과 같습니다.


같은 population 에서 같은 수의 sample 을 뽑아서 같은 model 을 여러번 만들었을 때, 실제 AUC 가 (a,b)에 포함될 확률이 95 % 이다.


하지만 모든 신뢰구간이 그렇듯 (a,b) 가 sample 을 뽑을 때마다 달라진다는 비판은 있을 수 있다고 생각합니다.


Meta-Learning


Meta-learning 세션에서는 아래와 같은 개념들을 다루었습니다.

  • One shot learning
  • Network Architecture Search (NAS)
  • Auto-agent (Augmentation rule 을 learning)
  • Population-based augmentation
  • optimization transfer (learn-to-learn)


Meta-learning 의 핵심은 task 마다 새로운 네트워크를 만들지 않고, 새로운 task 에 적용하는 것 (knowledge transfer) 입니다. 최종목적은 모델을 사람처럼 learning 하도록 하는 것입니다. 예를 들어, image classification 에서 동물의 종류를 classification 할 때, 각 class 마다 동물의 이미지가 한 장씩 있다고해보면, 모델은 제대로 학습할 수 없지만 사람은 단 한 장의 이미지만 보고도 classification 할 수 있습니다. 사람은 그만큼 적은수의 데이터를 가지고도 generalization 을 할 수 있습니다.  즉, 사람과 모델이 다른점은 지금까지 배워왔던 지식을 활용할 수 있다는 것입니다. 예를 들어 사람은 지금까지 살면서 쌓아온 지식을 토대로 동물 A와 동물 B가 다른 종이라는 것을 쉽게 파악할 수 있습니다. 하지만 모델은 각 task 마다 새로운 모델을 만들고 학습해야합니다. 이러한 문제를 해결하기 위한 분야가 meta-learning 입니다. 또한 Meta learning 의 범위는 매우 넓으며 network architecture search 나, hyper parameter optimization 같은 분야 (learning-to-learn) 도 meta-learning 으로 분류됩니다.

반응형
반응형

실제 능력과 남이 보는 능력 


「어떻게 능력을 보여줄 것인가?」 작가 잭 내셔 (1979~)


사람은 진짜 능력이 아니라 보이는 능력으로 판단 받는다. 이 책에서는 이를 2007년 최고의 바이올린 연주자인 조슈아 벨이 길거리에서 바이올린 연주를 하도록 한 실험을 통해 소개하였다. 유명한 연주자가 출근길 지하철에서 바이올린을 연주를 해도, 아무도 멈춰서서 그것을 감상하지 않았다. 이 실험에서 말하고자 하는 것은 아무리 최고의 능력을 갖고 있는 사람이더라도, 이 능력을 포장하지 않으면 사람들은 훨씬 덜 좋은 평가를 내린다는 것이다. 


실제 능력과 남이 보는 능력 (perceived competence)은 다르다. 이 책은 어떻게 하면 능력을 '포장' 해서 능력있고, 가치있어 보일 수 있는지에 대한 구체적인 방법을 제시한다. 사람은 '보이는 능력' 에 의해 평가 받기 때문에 능력을 잘 포장하는 것은 사회적 평판을 높일 수 있는 길이다. 


챕터 구성


1. 능력 있다는 평가를 이끌어 내는 법

2. 의심 많은 상사도 나를 믿게 하는 법

3. 나의 장점만 떠오르게 만든는 법

4. 운과 재능을 내 편으로 만드는 법

5. 마음을 훔치는 말하기 비법

6. 열마디 말보다 강력한 몸짓 사용법

7. 볼수록 매력 넘치는 사람들의 비밀

8. 아무도 흉내낼 수 없는 아우라는 만드는 법

 

이 책은 어떻게 능력을 보여줄 것인가? 라는 물음에 대해 위의 8개의 챕터로 구성하여 각 챕터에 대한 명확한 가이드를 제공한다. 본 포스팅에서는 이 중에서 몇 가지 인상 깊었던 부분을 정리해보려고 한다. 


열심히 일하는 것과 유능해 보이는 것


열심히 일하는 것은 나의 사회적 평판을 좋게하지 못할까? 이 책은 그렇지 않다고 말한다. 열심히 일하는 것이 중요하지 않다는 것은 아니다. 하지만 더 중요한 것은 "일을 잘해보이는 것" 이다. 사람들은 내가 열심히한 것에 관심이 없다. '내가 한 일' 이 아니라 '유능해 보이는지' 를 통해 평가하는 경우가 많다. 동일한 일이라고 하더라도, A 라는 사람은 열심히 밤을 새워 결과를 냈고, B 라는 사람은 대충 놀면서 결과를 냈다고 했을 때, 대부분의 사람은 B를 더 유능하게 평가한다. 즉, 동일한 결과물이 있을 때 '열심히 했다는 것' 은 오히려 그 사람의 유능함을 평가하는데 반대로 작용한다. 


신뢰성 있게 내가 한 것을 전달하는 방법


이 책의 모든 부분이 이러한 물음에 대한 간접적인 해법이 될 것이다. 하지만 챕터 5 의 어떻게 말하는 것이 사람의 마음을 움직이고 신뢰성 있게 보일 수 있는지에 대해 많은 도움을 줄 것이라 생각한다. 


  • 자신의 주장을 복잡하게 만들고, 숫자로 뒷받침하면 도움이 된다. 
  • 파워토킹을 할 것. 더듬는 말투, 과장된 존대법 등 군더더기를 걷어낼 것. 
  • 명료한 발음과 정확한 분절에 주의할 것.
  • 보통보다 조금 빠른 속도로 말해라.
  • 단조롭게 말하지 말고, 높은 어조와 낮은 어조를 번갈아 사용해라.
  • 보통보다 조금 더 큰 목소리로 말해라.
  • 자주 대화에 참여하되, 중간 정도의 시간을 써라.
  • 가장 중요한 논지를 내세우기 직전에 잠깐 침묵할 것!
  • 했던 말을 여러 번 되풀이하지 마라.
  • 상대방의 말을 끊지 마라.
  • 가능한 한 다양한 어휘를 사용해라.
  • 사투리는 충성심, 정직성 등을 어필해야 하는 경우에만 유리하다. 


첫 번째, '자신의 주장을 복잡하게 만들라.' 라는 것이 다소 직관과 거리가 멀어 보인다. 자신의 의견을 명료하게 말하면 듣는 사람에게 더 도움을 줄 수 있지 않을까? 하지만 말하기나 글쓰기의 목적이 단지, '능력있게 평가받기 위해서' 라면 자신의 주장을 다소 복잡하게 만들어, 듣는 사람이 이를 '스스로' 이해하게 만드는 것이 좋다는 것이 이 책의 주장이다. 


'파워토킹' 이라는 것은 '불필요한 요소' 가 없는 말하기를 말한다. 이 책에서 언급한 5가지 군더더기는 '강조하기', '망설임', '확인', '과도한 존대', '부가 의문문' 이다. 이러한 불필요한 요소가 많은 낮은 교육 수준 및 무능함을 연상시킨다. 즉,이러한 '군더더기'의 여부는 사회적 지위를 연상시키는 것으로 작용한다는 것이다 (참고). 


행동과 사회적 지위 평가


위의 '파워토킹' 의 예처럼, 사람의 행동은 사회적 지위를 평가하는 기준이 되기도 한다. 이 책의 챕터 8 '아무도 흉내낼 수 없는 아우라를 만드는 법' 에서는 어떻게 자신의 품격을 높이거나 높은 사회적 지위를 연상시키는 행동을 할 수 있는지에 대한 가이드를 제시한다. 

  • 관례를 따르지 않는 파격이 긍정적인 효과를 가져올 수도 있다. 단, 당신이 이미 높은 지위를 누리고 있는 경우에만!
  • 옷과 같이 당신을 둘러싼 모든 물건을 신중하게 고를 것.
  • 지루한 싸움을 피하고, 싸우기 좋아하는 사람들을 화해시켜라.
  • 남들이 너무 쉽게 접근하게 하지 마라.
  • 졸업장, 자격증, 상장 등을 눈에 띄게 전시할 것.
  • 가능한 한 전문 분야의 책을 집필해라.
  • 당신의 지적인 면모를 보여줄 '교양 게임' 을 벌일 것.
  • 높은 지위의 사람, 기관들과 함께 연상되도록 해라.
  • 권위를 지닌 존재와의 공통점을 만들어라.
  • 당신과 관계가 있는 모든 것을 찬양해라.


관례를 따르니 않는 파격적 등장에 관한 것은 '빨간 하이힐 효과' 를 예로 들 수 있다. 사람들은 오히려 후줄근한 모습으로 다니는 사람에 대해 유능하고 사회적 지위가 높은 사람이라는 평가를 내리기도 한다. 오히려 깔끔한 정장을 입고 다니는 사람에게는 상식과는 반대로 무능하다고 평가한다. 그리고 이러한 역설적인 평가는 '지적으로 뛰어난 집단 (혹은 적어도 자신이 똑똑하다고 생각하는 집단)' 으로 갈수록 그 경향이 심해진다.  빨간 하이힐 효과의 예는 많이 찾아볼 수 있다. 대표적으로 마크 저버커그는 맨발에 삼선 슬리퍼를 신고 다보스포럼 (세계 경제 포럼) 에 등장했다. 학회에서는 가장 많은 성과를 낸 학자들이 가장 편안한 복장으로 학회에 나타난다는 연구 결과도 있다. 왜 빨간 하이힐 효과가 발생할까? 핵심은 '관습과의 불일치' 이다. 관습과의 불일치는 '독립성' 을 의미하며, 이러한 개인주의와 독립성은 더 높은 지위와 능력을 연상시켜, 보이는 능력을 직접적으로 높인다. 다만, 이 책에 의하면 이미 어느정도 높은 지위를 누리고 있을 때, 이러한 '관습과의 불일치' 가 효과를 발휘한다. 


이외에도 이 책에 나온 내용 중 인상 깊은 것은 행동의 품격을 높이기 위해서 사소한 실수를 줄이라는 것이다. 하위 계층임을 암시하는 한 마디, 몸짓 하나에 보이는 능력이 땅으로 떨어질 수 있다. 물론 반대의 경우도 많다. 우선 자신의 거동을 면밀히 검토하고, 자신이 되고 싶은 사람의 거동과 행동을 자신의 것으로 만들면, 그에 걸맞는 대접을 받을 수 있다. 이와 관련해서 챕터 2에서 언급한 해리 벡위드의 말을 인용하고 싶다. '가장 좋은 선택지가 되려 하지 말고, 당신을 나쁜 선택지로 만들만한 모든 것을 없애라.' 



한 분야의 전문가로 인정받고 싶다면


이 책의 챕터  2에서는 직업적 측면에서 어떻게 인정받을 수 있는지에 대해 말하고 있다. 우선 '겸손' 에 대해 서술한 부분은 '어떻게 잘 겸손 할 수 있을까?' 에 대한 가이드를 준다. 때론, 겸손함은 불확실함 및 비겁함과 동일시되며, 실패에 대한 방어라고 해석되기도 한다. 겸손함이란 종종 그 목적이 자신을 향한 비판을 막으려는 계산에서 나오기 때문이다. 예를 들어, 프리젠테이션 도중 지나치게 겸손하며, 발표가 끝난 후, '충분한 준비를 하지 못해 죄송하다.' 라고 하는 경우, 사람들은 그를 겸손한 프로페셔널로 기억하지 않는다. 이 책에서는 겸손에 대해 '필요한 날에만 걸고 다니는 장신구' 라고 표현한다. 겸손은 필요할 때만 사용하면 되는데, 절대 자신의 핵심 능력을 방해하지 않는 선에서 해야한다. 자신의 직업 영역에서 겸손한 것은 오히려 보이는 능력을 하락시킨다. 


아무도 의사가 되고 싶었던 회계사를 높게 쳐주지 않는다. 남에게 자신이 능력있고 전문성 있는 사람으로 보이고 싶다면 Born to be 임을 어필하는 것이 좋다. 어떠한 직업군에 대한 고정관념이 있다. 예를 들어, 우리는 학자는 산만하고 괴짜이며, 변호사는 이성적이고, 유창한 언변을 갖추었을 것이라고 생각한다. 어떤 사람들은 직업에 대한 고정관념을 깨고 싶어, 그와 정반대 되는 모습을 드러내려고 하는 사람들이 있다. 이와 관련해서는 챕터 4에 나온 '애완견이 되고 싶었던 당나귀' 이야기를 언급하고 싶다.


당나귀는 저녁마다 우리에 서서 자고, 하루 종일 주인을 위해 열심히 일해야 했다. 그에 반해 애완견은 집안에서 잠을 자고, 아무 일도 하지 않아도 맛있는 사료와 간식을 먹었다. 그 모습을 본 당나귀는 주인에게로 달려가 애완견처럼 꼬리를 흔들고, 그의 가슴으로 뛰어오르려 했다. 놀란 주인은 당나귀를 우리에 더욱 단단히 묶어 두었다. 


이 이야기 말해주듯, 세상은 감상에 젖어 본분을 잊어버린 변호사를 바라지 않는다. 자신의 직업군에 관해 사람들이 기대하는 바를 잘 알고, 그에 맞게 행동하는 이들은 같은 일을 해도 더욱 많은 결실을 건져 올리게 된다. 만약, IT 에 종사하는 사람이라면, 스마트 워치를 차고, 스마트 태블릿에 메모를 하라. 이는 보이는 능력을 높여줄 것이다. 



정리


이 책은 보이는 능력을 키울 수 있도록 실제로 일상 생활에서 실천할 수 있는 것을 명확하게 열거하고 있다. 많은 사람들이 노력을 통해 자신의 전문성을 키우고, 남한테 인정받는 사람이 되고자 한다. 이 책은 능력으로 인정받고 싶은 사람들에게 보이는 능력을 높임으로써 더욱 쉽게 인정받을 수 있는 방법을 제시했다고 생각한다. 한 편, 이 책의 내용은 어떤 면에서는 다소 불쾌한 느낌이 들 수도 있다고 생각한다. '상위 계층' 과 '하위 계층' 을 나누어서 상위 계층으로 가기 위한 방법을 설명하고 있는듯 하다는 점 때문일 것이다. 하지만, 스스로 사회를 변화시키는 것은, 사회에 적응하는 것보다 힘들다. 사회를 변화시키는 더 쉬운 방법은 우선 사회에 적응해 자신처럼 생각하는 사람을 많아지게 하는 것일 것이다.  만약 내가 무언가가 간절히 되고 싶고, 이에 대한 암묵적인 사회적 규범이 존재한다면, 적어도 이를 파악하고 극복하기 위해 노력한다면 실제로 더 많은 보수를 가져다 줄 것이다. 


반응형

'My Logs > Book' 카테고리의 다른 글

진화심리학 - David Buss 리뷰  (0) 2017.10.02
기술적 특이점이란 무엇인가?  (0) 2017.03.03
0.1%의 차이 - 베르트랑 조르당  (0) 2017.02.03
반응형

 

여드름을 유발하는 7개의 식품군

 

여드름은 전세계에서 10% 이상이 갖고 있는 아주 흔한 피부 질환입니다. 많은 사람들이 어떤 식품을 먹고 여드름을 발생된 경험을 많이 하신 만큼, 여드름과 식품의 연관성은 학계에서도 논란이 되어왔는데요. 최근, 지금까지의 식습관-여드름의 관련성을 분석한 여러 논문들을 메타분석한 연구결과에 따르면 (1) 일부 식품군의 경우 여드름에 영향을 준다고 보는 것이 상당히 설득력이 있었다고 합니다. 본 포스팅에서는 연구 결과에 기반하여 여드름과 관련이 있다고 알려진 7개의 식품군에 대해서 다루어 보겠습니다.

 

 

1. 정제된 곡식 그리고 설탕

 

 

정제된 탄수화물을 많이 먹는 사람은 그렇지 않은 사람에 비해 여드름을 더 많이 갖고 있었습니다. (2) 

정제된 탄수화물(refined carbohydrates)이란 아래와 같이 탄수화물(밀, 쌀, 설탕 등)을 정제한 식품을 말합니다.

 

1. 빵, 크래커, 시리얼, 밀가루로 만든 디저트

2. 파스타

3. 흰쌀, 국수

4. 탄산음료 등의 설탕이 첨가된 음료

5. 메이플 시럽, 꿀 

 

한 연구에서 설탕 첨가물을 자주 섭취하는 사람은 그렇지 않은 사람에 비해 여드름에 대한 상대 위험도가 30% 높았고, 페이스트리, 케이크를 섭취하는 사람은 위험도가 20% 높았습니다. 이러한 식품들은 당을 많이 포함하고 있기 때문에 섭취시 매우 빠른 속도로 혈당(blood sugar)을 높이며, 이것이 체내 인슐린 농도를 높여 여드름에 발생에 기여하기 때문입니다. 인슐린은 남성호르몬인 안드로겐을 활성화시키며 insulin-like growth factor 1 (IGF-1)를 증가시킵니다. 이러한 것들이 피부 세포를 빠르게 성장하게 만들며, 피지 분비를 많게 만들어 여드름을 유발하게 됩니다. 

 

 

2. 유제품

 

 

여러 연구에서 청소년기의 우유 섭취가 여드름에 영향을 준다는 연구 결과가 발표되었습니다. (3)(4) 이러한 연관성은 성인에게서도 마찬가지로 발견이 되었는데요, 우유와 아이스크림을 꾸준히 섭취하는 사람은 여드름이 발생할 위험도가 4배에 달했습니다. (5) 하지만 이러한 연관성이 인과성이 아닐 수도 있는데, 유제품이 왜 여드름에 형성에 영향을 주는지 명확하게 밝혀져 있지 않기 때문입니다. 

 

몇 가지 가설을 소개하면 다음과 같습니다. 

 

1. 우유는 혈당으로 인해 인슐린이 올라가는것과는 독립적인 경로로 체내 인슐린 수치를 증가시킨다고 알려져 있습니다. 따라서 위 1번에서의 메커니즘과 동일하게 피지 분비가 많아지며 여드름이 발생한다는 것입니다.

2. 우유는 간을 자극하는 아미노산을 함유하고 있는데 이 아미노산이 간을 자극하게 되면 IGF-1 의 생성이 많아지게 되고 이는 여드름의 발생에 기여한다는 것입니다. 

 

하지만 유제품에 관해서는 정확히 어떤 유제품을 어느정도로 먹었을 때 여드름이 유발되는지 아직 명확하게 밝혀지지 않아 더 많은 연구 결과가 필요합니다. 

 

 

3. 패스트 푸드

 

 

 

다음은 패스트푸드입니다. 소위 말하는 "서양식 식습관", 고칼로리 고탄수화물 고지방식의 대표적인 식품이 바로 패스트푸드인데요. 이러한 햄버거, 너겟, 감자튀김, 핫도그, 탄산, 밀크쉐이크 등의 서구식 식습관은 여드름과 매우 강한 연관성을 갖습니다 (6). 한국과 인종적으로 비슷한 중국 청소년 5,000 명을 대상으로한 여드름 연구에 따르면, 고지방식 및 패스트푸드의 정기적인 섭취는 여드름의 발생을 각각 43%, 17% 증가시켰습니다. 또한 터키인을 대상으로한 연구에 따르면 햄버거와 소시지를 빈번하게 먹는 사람은 여드름의 위험도가 24% 높았습니다. 

 

하지만 아직까지 패스트푸드가 왜 여드름을 유발시키는지에 대해서는 위에서 언급한 인슐린의 증가로 인한 효과 이외에는 명확하게 밝혀진 바가 없는데요. 한가지 가설로는 서양식 식습관이 "유전자 발현량 (gene expression level)" 을 변화시키고, 이로 인해 체내 호르몬 수치에 이상이 생겨 여드름을 유발한다는 것입니다 (7)

 

 

 

Potential role of FoxO1 and mTORC1 in the pathogenesis of Western diet-induced acne (Exp Dermatol. 2013)

 

하지만 이러한 연구 결과는 실험자에게 음식을 먹은 후에 여드름이 발생하는 것을 직접 관찰하는 방식의 "실험연구" 가 아니라 설문지를 기반으로한 연구이기 때문에 서양식 식습관을 주로 하는 사람들이 여드름의 발생이 많다 라는 결론을 내릴 수는 있지만, 서양식 식습관이 여드름의 발생에 원인이 된다고 단정짓기는 어렵습니다. 따라서 정확한 원인을 파악하기 위해서는 더욱 연구가 필요합니다. 

 

 

4. 오메가-6 지방산이 많은 식품

 

 

 

오메가 지방산? 그거 몸에 좋은거 아니야? 라고 생각하시는 분도 있으시겠습니다. 하지만 몸에 좋다고 알려져 있는 것은 호두, 등푸른 생선 등에 많이 함유되어있는 오메가-3 지방산이며 이와 다르게 서구식 식습관에 많이 포함되어 있는 오메가-6 지방산의 섭취는 여드름의 발생과 관련성이 있다는 연구 결과가 많이 보고되었습니다. 

 

서구식 식사는 옥수수와 대두유(soybean oil)같이 오메가-6 지방산이 많이 들어있는 식품은 다양한 반면 오메가-3 지방산을 포함한 식품은 적다는 특징이 있습니다. 이러한 오메가-3와 오메가-6 지방산의 불균형은 몸을 염증에 취약한 상태로 만들며, 이로 인해 피부에 여드름 발생이 더욱 쉽게 일어나게 됩니다. 

 

오메가-6 지방산을 포함한 식품

 

1. 가금류 (닭, 오리 등)

2. 계란

3. 호두, 땅콩

4. 참기름

5. 시리얼

 

하지만 오메가-6 지방산의 과다로 인한 오메가-3 지방산과의 불균형은 부족한 오메가-3를 보충해줌으로써 해결할 수 있는데요, 오메가-3 지방산 영양제를 섭취하는 것은 여드름 정도를 조금은 감소시키는데 기여하였습니다 (8). 이처럼 오메가-6 지방산의 과다가 여드름을 유발한다는 것은 아직 실험연구가 없긴 하지만 어느정도 명확해보입니다.

 

 

5. 초콜렛

 

 

다음으로는 달콤한 맛이 매혹적인 초콜렛입니다. 대부분의 초콜릿들이 과다한 설탕이 포함되어 있는 경우가 많기 때문에 초콜릿이 여드름 발생에 기여한다는 것은 예상이 되는데요. 하지만 다크초콜렛은 어떤지에 대해서가 논쟁거리였습니다. 

 

최근 여드름이 있는 사람에 대해 다크초콜렛의 연관성을 연구한 연구결과에 따르면 99% 다크초콜렛을 매일 25g씩 섭취한 사람은 2주 후 여드름 발생 지역이 증가하였다는 결과가 보고되었습니다 (9). 다른 연구에서는 연구 참여자를 두 그룹으로 나누어 한쪽에는 100%의 코코아 파우더를 다른 한쪽에는 가짜약인 플라시보를 주어 1주 후에 여드름 발생을 평가하였는데요. 1주 후에 코코아를 준 그룹에서 여드름이 더 많이 관찰되었다고 합니다 (10)

 

 

Double-blind, Placebo-controlled Study Assessing the Effect of Chocolate Consumption in Subjects with a History of Acne Vulgaris. (J Clin Aesthet Dermatol. 2014)

 

하지만 초콜렛의 경우도 마찬가지로 어떤 기전으로 인해 여드름 발생에 영향을 주는지는 정확하게 알려져 있지 않은데요. 한 가지 가능성은 초콜릿을 먹는것이 여드름을 발생시키는 박테리아에 대한 면역 체계의 반응을 촉진시키고, 이것이 여드름의 발생에 기여한다는 것입니다 (11)

 

 

6. 단백질 파우더

 

 

 

단백질 파우더에는 류신, 글루타민 같은 아미노산이 많이 포함되어있는데 이러한 아미노산은 피부세포를 분열을 빠르게 만듭니다. 그리고 정상보다 빠르게 피부세포가 분화하는 것은 여드름 발생의 원인이 됩니다. 또한 단백질 파우더에 있는 아미노산은 인슐린의 분비도 증가시키기 때문에 이로 인해서도 여드름이 발생하게 됩니다 (12).  

 

한 남성 운동선수들을 대상으로한 사례 연구에서는 단백질 파우더 섭취를 하는 운동선수의 경우 여드름이 많이 나며 여드름 치료제와 약을 사용함에도 여드름이 치료되지 않는 경우가 많았다고 합니다. 하지만 단백질 파우더 섭취를 그만하였을 때는 이런 여드름 증상이 대부분 깔끔하게 사라졌다고 합니다. (13)

 

다른 관찰 연구에서도 마찬가지로 헬스장에 다니는 성인남녀를 대상으로 연구를 하였는데 단백질 파우더 섭취 일수가 증가할 수록 여드름 발생 지역이 증가하였다고 보고하였습니다. 이러한 경향성은 여성여드름 가족력이 없는 사람에게서 더 심하게 나타났다고합니다. 

 

 

Incidence of acne vulgaris in young adult users of protein-calorie supplements in the city of João Pessoa--PB. (An Bras Dermatol. 2013)

 

하지만 위 연구들은 대부분 규모가 작은 연구이기 때문에, 단백질 파우더와 여드름의 정확한 인과관계 규명을 위해서는 더 많은 대상자를 대상으로한 규모가 큰 연구가 필요해 보입니다. 

 

 

7. 개인적인 알러지가 있는 식품

 

 

여드름은 염증성 질환으로 알려져있습니다. 그렇기 때문에 항염증성 약이 여드름 치료에 효과적인 것이죠. 염증이란 상해에 대한 생체 조직의 면역 반응입니다. 만약 어떤 사람이 A 라는 식품에 민감한 특성이 있다면 A 식품을 먹으면 피부가 이를 항원으로 여겨 면역 체계를 발동시키게 되고 이것이 피부에 염증을 일으켜 여드름이 되는 것입니다 (14)

 

하지만 이러한 면역 반응으로 인해 여드름을 유발하는 식품이 무엇인지에 대해서는 사람마다 다른 것이기 때문에, 개인이 이를 파악하기 위해서는 일상생활에서 먹은 음식과 이후에 여드름이 발생하는지를 기록해 먹지 말아야할 식품을 검출하는 식으로 알 수 있습니다. 이를 제외식이법 (elimination diet) 라고도 하는데요 식품 알러지를 치료할 목적으로 식품을 하나씩 제외해가면서 증상을 확인하는 것을 말합니다. 

 

알러지를 유발할 수 있는 식품은 매우 많기 때문에 이러한 알러지로 인한 여드름의 발생은 아직까지 많은 부분이 알려지지 않았습니다 (15). 따라서  스스로 자신에게 알러지를 유발하는 음식을 파악하고 이러한 식품들을 피하는 식습관을 유지하는 것이 여드름을 줄이는데 중요하다고 할 수 있겠습니다. 

 

 

참고

https://www.healthline.com/nutrition/foods-that-cause-acne

반응형
반응형


2018 한국 PyCon Tutorial 후기


뒤 늦게 한국 Pycon이 시작된다는 것을 알아서 등록 기간을 놓쳐 본 이벤트라고 할 수 있는 Conference는 놓쳤지만 아쉬운 마음에 Tutorial이라도 들어보기로 했다. Kaggle 관련한 Tutorial 이었는데, 최근 많이 사용되어지는 데이터 분석 (EDA, Feature enginerring, 모델링) 관련한 팁을 얻고자 하는 마음이었다. 장소는 삼성역 코엑스 센터였다. "Dive into diversity" 라는 문구가 행사의 슬로건인듯 했다.   



장소 : 삼성역 코엑스 2F 그랜드볼룸




튜토리얼 후기 


데이터 분석 관련하여 최근 많이 활용되는 방법들에 대한 유용한 정보들을 많이 얻었다. 특히, Feature Engineering 부분에서는 Label encoding, one hot encoding이나 모델에서 importance를 계산해서 차원을 축소하는 등의 기본적인 것을 제외하면 아는 것이 많이 없었는데, 최근 Kaggle에서 많이 쓰이는 방법들을 알 수 있어 좋았다. 예를 들어, frequency encoding, mean encoding 등이었다. 원래 값을 통해 새로운 feature를 생성하는 것이 성능을 높일 수 있다는 것이 신기했다. 


Feature Engineering은 크게, Tree 기반 모델이냐, Tree 기반 모델이 아니냐에 따라 그 방법이 달라진다. 특히 Tree 기반의 모델의 경우 categorial feature를 encoding 할 때, frequency encoding, label encoding 등을 사용한다. 하지만 label encoding 같은 경우, 타겟값과 전혀 상관 없는 값이 코딩되는 것이기 때문에 성능이 안 좋을 수 있다. 반면, frequency encoding 은 타겟값과 관련있는 값이 인코딩 되기 때문에 더 좋다고 할 수 있다. 반면 neural network의 경우, one hot encoding을 주로 하게 된다. 다만 one hot encoding은 차원이 커지는 문제가 존재한다. 특히 categorical feature를 제거하냐 안하냐를 선택할 때는 주로 feature에 따른 타겟값의 분포를 보고 선택한다. 카테고리에 따른 타겟값의 분포에 차이가 없다면 그 feature는 없어도 무방할 것이다. 특히 mean encoding의 경우 feature와 타겟값이 관련을 갖게 만들면서, 차원도 높이지 않는다는 두마리 토끼를 잡을 수 있는 방법이었다. 그래서 최근 많이 사용되는 categorical 변수의 feature encoding 방법이라고 한다.


또한 Kaggle에서는 Cross-validation이 매우 중요하다는 것을 깨달았다. cross-validation 이 잘못된다면, 모델의 성능을 잘못평가하는 것이 되어버리기 때문에 좋은 성적을 얻기 힘들다. 핵심은 validation set과 test set에서 변수들의 값의 분포를 동일하게 해야한다는 것이다. 그렇지 않다면 validation set에서 성능이 높더라도 test set에서의 성능을 보장하기 어렵다. 


머신러닝 관련한 부분에서는 역시 lightgbm, catboost, xgboost 등의 gradient boosting tree 계열의 알고리즘이 많이 사용된다고 하며, 좋은 성적을 낸 사람들은 대부분 stacking을 활용한다. stacking 같은 ensemble 알고리즘이 좋은 이유는 성능이 0.7짜리인 3개의 모델을 결합함으로써 0.8 이상의 성능을 갖는 모델을 만들 수 있다는 것이다. stacking을 어떻게 하느냐에 따라 leader board에서의 등수가 좌우되는 것 같았다.  


아래 코세라 강의에 Kaggle 관련한 많은 팁들이 있는듯하다. 

https://www.coursera.org/learn/competitive-data-science


반응형
반응형