My Logs/Article (4)

 

 


요약 & 의견 

 

1) 어떤 분야든 Self-report 는 100% 신뢰할 수 없다. (물론 분야별 신뢰도의 차이는 있겠지만..)

2) 세대별로 인터넷을 이용하는 방식은 다르지만, 거짓 정보에 대한 취약하다는 사실은 동일하다.


Lateral reading 이라고 불리는 읽기 습관은 사실 관계 확인 절차에 있어 핵심적인 부분이다.  (Lateral reading: 온라인 정보 파편의 사실 관계나 출처 등을 확인하기 위해, 수많은 브라우저 탭을 열고, 검색을 하는 등의 방법으로 다양한 정보를 습득하는 것을 의미) Poynter, YouGov, Google 의 최신 연구 결과는 Z세대 (Generation Z) 는 이러한 테크닉을 이전 어느 세대보다 잘 활용하고 있다는 것을 보여주었으며, 이는 매우 희망적인 결과라고 할 수 있다. 

 

2022년 8월 11일, 구글 검색 엔진팀은 다양한 연령대 및 국가별로 잘못된 정보를 처리하는 방법의 차이점에 대한 연구를 발표하였다. 이 연구에서는 8,000명 이상의 연구 대상자에게, 온라인 콘텐츠 조사 방법에 대한 설문 조사를 실시하였으며, Z 세대와 (18-25세) 부터 Silent Generation (>68세) 에 이르는 연령대별로, 7개 이상의 국가별로 수집한 설문 결과를 종합하였다. 

 

기본적으로, 이 연구의 결론은 젊은 사람일수록 의도치 않게 거짓 정보 또는 오해의 소지가 있는 정보가 공유 됐을 가능성을 생각하는 경향이 있다는 것이다. 그들은 또한 "고급 팩트 체킹 기술" 을 활용하는데에도 능숙하다고 한다.

3분의 1 이상의 Z 세대 응답자들중 사실 관계 확인을 위한 lateral reading 에 많은 시간을 투자한다고 응답한 비율은 베이비부머 세대의 응답자들보다 2배 이상 높았다. 또한 3분의 1이상의 젊은 사람들은 검색 결과 비교를 위해 다양한 검색 엔진을 활용하며, 검색 결과 2페이지 이상을 탐색한다고 답했다. 

 

62% 의 응답자들은 매주 잘못된 정보를 접하고 있다고 답했다. Z세대, 밀레니얼 세대, X세대의 응답자들은 잘못된 정보 판단에 있어 다른 세대 보다 상대적으로 더 자신감이 있었으며, 그들의 가족 또는 친구가 잘못된 정보를 믿지 않을까하는 걱정하는 경향을 보였다. 

 

그러나, 연구 결과는 설문 조사 결과에 의존하고 있고, 이는 대상자들이 믿는 자신의 신념과 습관에 불과하다. Z 세대의 "실제 습관" 과 관련된 수치는 이와 상반된다. 팩트 체킹을 연구하는 스탠포드 Sam Wineburg 교수에 따르면, 인터넷에서 사람들이 어떻게 행동하는지를 파악하기 위해 "자기 응답" (self-report) 을 활용하는 것은, 그의 표현을 빌리자면 "bullshit" 이라고 한다.  

 

"사람들이 실제로 하는 것과 한다고 말하는 것의 괴리는 사회 심리학 초기 연구 자료에서 쉽게 확인할 수 있다." 그는 말했다. 그의 연구 결과는 누군가의 개입이 없는 경우, 젊은 사람들은 자발적으로는 lateral reading 이나 사실 관계 확인을 거의 하지 않는다는 것을 보여주었다. 

 

Wineburg 와 그의 연구팀에 의해 수행된 최근 연구에서는 대학생들을 대상으로 사실 관계 확인 기술에 관한 온라인 수업이 사실 관계를 확인 습관에 도움을 줄 수 있을지를 확인하였다. 수업 전 사전 조사에서 87명중 불과 3명의 학생만이 lateral reading 을 능동적으로 하는 것으로 확인 되었다. 

 

 "만약 사람들이 자발적으로 lateral reading 을 한다면, 우리는 훨씬 더 나은 곳에 살 수 있을 겁니다." Wineburg 는 말했다. 

 

좀 더 큰 규모의 연구에서는 3,000명 이상의 고등학생들이 온라인내에 존재하는 일련의 주장들을 조사하도록 요청 받았다. 결과는 더욱 암울했다. 50% 이상의 학생들이 러시아에서 촬영된 익명의 페이스북 동영상을 보고, 이것이 "부정 투표" 에 관한 강력한 증거라고 믿었다. 

 

Z 세대는 다른 세대들과 인터넷을 다른 방식으로 이용하는 것은 확실하다. 그러나 Z 세대도 이전 세대들과 마찬가지로, 지난 몇 년간 온라인 생태계를 악화시킨, 정보의 함정, 전략적인 잘못된 정보의 영향에 취약하다. 

 

출처: https://www.technologyreview.com/2022/08/11/1057552/gen-z-misinformation/

https://www.technologyreview.com/2022/06/28/1054270/2022-innovators-ai-robots/

* 이 포스트는 Mit technology review 의 22년 6월 28일 아티클 "AI's progress isn't the same as creating human intelligence in machines " 개인의 의견을 담아 리뷰한 글입니다. 

 

제목에서 알 수 있듯 위 아티클은 AI 의 발전은 기계로 인간 지능을 창조하는 것과 동일하지 않다. 고 말하고 있다. 

 

AI 의 두 분야

 

1. 인간의 지능을 컴퓨터에 구현하는 것 (Scientific AI)

2. 엄청난 양의 데이터를 모델링하는 것 (Data-centric AI

 

두 분야는 매우 다르다. 두 분야의 개념 차이만큼이나 두 분야의 야망과 최근 발전 상황이 다르다고 할 수 있다. 

이 기사의 요지중 하나는 최근 AI 분야의 발전은 대부분 Data-centric AI 에서 이루어졌다는 것이다. 

 

1) Scientific AI

인간 수준의 지능을 컴퓨터에 구현하기 위한 분야를 말하며, 1950년대부터 수십년간 이어져온 과학의 매우 심오하고 도전적인 과제라고 할 수 있다. 최근 컴퓨터에 구현된 인간 수준의 지능과 관련하여 Artificial general intelligence (AGI) 라는 용어를 많이 사용한다. 

 

2) Data-centric AI

1970년 현대와 비교하면 비교적 간단한 “decision trees” 모델을 만드는 것으로부터 시작되었으며, 최근에는 흔히 '딥러닝' 으로 일컫는 신경망 모델의 발전으로 큰 유명세를 얻고 있는 분야이다. Data-centric AI 는 “narrow AI” 또는 “weak AI" 라고도 불리지만, 최근 다양한 분야에서 여러 잠재력을 보여주었다. 

 

수많은 양의 학습 데이터와 컴퓨팅 파워가 결합된 딥러닝 모델은, 음성인식, 게임 등 다양한 분야의 "narrow tasks" 에 적용되어 왔다. AI 기반의 예측 모델은 수많은 반복 훈련을 통해 점점 정확도가 높은 모델을 만들어 내고 있다. AI 분야의 bottle neck 은 사람이 labeling 한 학습용 데이터가 필요하다는 것인데, 최근 AI 가 가상의 labeled 데이터를 만들어내는 분야도 크게 발전하고 있다.

 

GPT-3 는 언어 모델은 OpenAI 에 2020년에 발표한 모델로 이러한' 학습용 데이터 생성' 분야의 잠재력을 보여주었다. GPT-3 은 수십억개의 문장을 통해 학습되었으며, 그럴듯한 문장을 자동으로 만들어낸다. 또한 질문에 대해 정말로 사람이 쓸법한 문장으로 적절한 답을 하기도 한다. 

 

GPT-3 모델을 활용하고 있는 어플리케이션 예시 (분야별)

 

GPT-3 데모사이트 에는 다양한 분야의 GPT-3 open API 를 활용한 다양한 어플리케이션들의 리스트를 확인할 수 있다. 

 

300+ GPT-3 Examples, Demos, Apps, Showcase, and NLP Use-cases | GPT-3 Demo

GPT-3 is the world's most sophisticated natural language technology. Discover how companies are implementing the OpenAI GPT-3 API to power new use cases.

gpt3demo.com

 

그러나 GPT-3 에는 여러 문제점들도 존재한다. 

 

1) 비일관성: 같은 질문에 대해 답이 달라지는 경우가 있으며, 서로 모순되기도 한다. 

2) 할루시네이션: GPT-3 한테 1492년에 미국 대통령이 누구냐고 물으면 기쁘게 답변한다.

(실제로 1492년은 콜롬버스가 신대륙을 발견한 때로 미국 대통령은 존재하지 않았다.)

3) 높은 비용: 학습하는데 수많은 양의 데이터가 필요하고, 레이블이 있는 학습데이터는 비싸므로, 높은 비용이 요구되는 모델이다. 

4) 불투명성: 왜 GPT-3 가 그런 결론을 냈는지에 대해 종종 이해하기 어려울 때가 있다. 

5) 학습데이터 편향: GPT-3 는 학습 데이터를 흉내낸다. 학습 데이터는 웹으로부터 많이 수집되기 때문에 "toxic content" 가 많이 포함되어 있다. (sexism, racism, xenophobia 등등..) 

 

요약하자면, GPT-3 는 신뢰하기 어려울 때가 많다. 즉, 인간 수준의 지능을 가지고 있는 것은 아니다.

 

이러한 한계점에도 불구하고 연구자들은 GPT-3 의 multi-modal versions 을 연구하고 있고 (multi-modal 이란 커뮤니케이션 채널이 여러개라는 의미이다.), 그 중 하나가 DALL-E2 와 같은 모델이다. DALL-E2 는 자연어를 인풋으로 받아, 실제적인 이미지를 생성하는 모델이다. GPT-3 는 인풋으로 텍스트를 받아 텍스트를 아웃풋으로 보여주는 모델이라면, DALL-E2 는 인풋으로 텍스트를 받아 이미지를 아웃풋으로 보여준다. 

 

DALL-E2: 'an astronaut lounging int a tropical resort in space' 라를 문장을 vaporwave 스타일로 생성한 이미지이다.

 

 

AI 개발자들은 이러한 DALL-E2 모델을 로봇, 생명과학, 화학 등 다양한 분야에 어떻게 적용할 수 있을지를 고민하고 있다. 

 

Data-centric AI 의 한계점중 하나는 이러한 시스템들이 인간에 의해 만들어진다는 것이다. 어떠한 문제를 formulation 하고, 이를 해결하는 시스템을 설계하고 만드는 것은 인간이다. 피카소의 유명한 말이 있다. 

 

 “Computers are useless. They only give you answers.” 

 

기술을 기반으로한 인간의 발전은 좋은 질문을 던지는 것에서부터 오는 경우가 많다고 생각한다. 예를 들어, 자율 주행차를 생각해보면, "자동차 운전 조작을 자동화할 수 있지 않을까?" 라는 질문에서 시작됐을 것이다. 이러한 질문을 해결하기 위한 방법을 공학적으로 설계하고, 여기에 AI 기술을 활용하여 "자율 주행차" 가 세상에 나올 수 있었을 것이다. 

 

현재의 AI 는 질문에 대한 좋은 답을 줄 수 있지만, 새롭고 창의적인 질문을 던지거나, 해결 방법을 설계하지는 못한다. AI 가 "자동차 운전의 자동화" 를 생각하고, 이를 어떻게 구현할지 제시하지는 못하는 것처럼 말이다. 아직까지 컴퓨터는 답을 줄 뿐, 질문을 만들지는 못한다. 

 

AI 시스템이 좋은 질문을 만들게 될 날이 오는 것을 기대할 것이다. 먼 훗날이 될 수 있겠지만 그 날이 오면, 오래된 과학의 도전적인 과제 중 하나인 인간 수준의 지능을 이해하고 구현하는 것에 대하여 해결의 실마리를 찾을 수 있을지도 모른다. 


2019 대한의료인공지능학회 Summer School 참석후기


2019 대한의료인공지능학회 Summer School 에 참석하였습니다. 참여자들을 조사했는데, 대략 전체 참석자중 MD 가 절반정도, 나머지 연구원 및 학생이 절반 정도되었던 것 같습니다. 각 교육 세션은 50분에서 1시간 30분사이로 진행되었습니다. 


1일차에는 의료인공지능을 하기 위한 방법론들을 주로 다루었습니다. 역시 현재 의료인공지능 분야의 state-of-the-art 인 deep learning 에 대한 내용이 중점이었습니다 (물론 이를 설명하기 위한 수학적, 통계적 개념은 많이 다루었습니다). 교육 내용은 deep learning 을 기초부터 다루지는 않았고, deep learning을 의료 데이터에 적용할 때 발생할 수 있는 주요 이슈들에 대해서 개념부터 최근 연구 동향까지 다루었습니다. 현재 연구원으로서 엔지니어링을 의료 데이터에 적용하고 있는 저로서는 발표자 분들과 같은 관심선상에서 많은 것을 배울 수 있었습니다. 


Recent updates of ML/DL/DCNN 


deep learning 중 특히 convolutional neural network (cnn) 을 의료데이터에 적용할 때 생기는 다양한 이슈들에 대해 개념부터 시작해 최근 연구 동향까지 빠르게 다루는 시간이었습니다. 발표자 분께서는 하나의 개념에 대해 깊게 설명하지는 않았으나, 앞으로 관련 개념을 찾아볼 때 충분한 guide 가 될 수 있을 정도로 잘 설명을 해주셨습니다. 


이 세션에서는 아래와 같은 주제들을 다루었습니다. 

  • Transfer learning and domain adaptation
  • Weakly supervised learning
  • Self-supervised learning
  • Explainability
  • Model compression and architecture search
  • Other issues

위 주제들은 모두 의료 인공지능 분야에서 중요한 이슈가 되는 주제들이라고 생각합니다. 


Recent updates of GANs: basic to advanced


아직 연구에 GAN 을 활용하지 않고 있는 저로서는 GAN 의 개념을 잘 모르고 있었는데, 기본 개념과 초기 GAN 의 문제점, 그리고 발전사에 대해 이해하기 쉽게 잘 설명을 해주셨습니다. GAN 은 Generative + Adversarial 두 가지 컴포넌트로 나뉘며, Generator 가 생성된 데이터를 Adversarial 가 진짜 데이터인지 Generator가 생성한 데이터인지를 평가합니다. 이 과정을 반복하면서 Generator 는 Adversarial 을 속일 수 있을 만큼 진짜 같은 데이터를 생성하내게 됩니다. Ian goodfellow가 제안한 초창기 GAN  모델에서 advanced 된 WGAN, CGAN, InfoGAN, Cycle GAN, GauGAN 등의 최근 모델도 다루었습니다. 특히 Cycle GAN 이나 GauGAN 등을 통해 Style transfer를 할 수 있고, 이러한 개념을 활용해 MRI 데이터를 CT 데이터로 변환할 수 있다는 내용이 흥미로웠습니다. 또한 U-net 과 같은 Semantic segmentation model 뿐 아니라, GAN 을 통해서도 segmentation 을 할 수 있다는 사실도 알게 되었습니다. 의료 인공지능 분야에 관심을 갖으며, 아직 GAN 을 많이 접해보지는 않았는데, 이번 강연을 계기로 GAN 관련 내용을 앞으로 공부를 해 보아야겠습니다. 


Mathematical tools in deep learning: A primer


이 세션에서는 deep learning 에서 쓰이는 다양한 수학적 개념에 대해 훑어주셔습니다. 각종 커뮤니티에서 딥러닝을 하기 위해서 필요한 선행지식으로, 수리통계학, 확률론, 선형대수, 컴퓨터 알고리즘 등을 꼽고 있습니다. 물론, 이러한 분야에 대한 개념이 딥러닝을 이해하는데 있어서 큰 도움이 되는 것은 사실입니다. 하지만 딥러닝을 하기 위해서 이러한 학문을 처음부터 끝까지 새로 배우는 것은 큰 시간과 비용이 소모됩니다. 특히 수학 관련해서는, 딥러닝에 활용이되는 수학적인 내용중 핵심적인 부분만 빠르게 학습하는 것이 시간을 줄이는 법일 것입니다. 이러한 관점에서 강연자분은 딥러닝에 활용되고 있는, 수학적인 개념을 집어서 강연을 해주셨습니다.  또한 강연자분은 Dive into deep learning 을 딥러닝 처음 학습 교재로 추천해주셨습니다 (https://www.d2l.ai). 개인적으로 저도 Ian good fellow 의 딥러닝보다 더 딥러닝 입문서로 추천하는 책입니다. Ian goodfellow 의 저서는 다소 교과서적이고 딱딱한 면이 있지만 이 책의 경우 보다 insightful 하게 설명을 하고 있고, 코드도 함께 나와 있어 입문서로써도 좋으며 어느정도 딥러닝에 경험이 있는 사람에게도 충분히 도움될 것으로 생각합니다.  


Explainability


다음은 Unist XAIC 그룹에서 Explainability 에 대해 다루어주셨습니다. Interpretability와 Explainability의 차이와 그것이 의료에 있어서 왜 중요한지에 대해 조금 더 구체적으로 알 수 있었고, 이를 구현하는 기술적인 방법에 대해 파악할 수 있었던 시간이었습니다. Interpretability 란 모델을 해석할 수 있는 것, 즉 딥러닝을 예로 들면, 각각의 layer 와 node가 무엇을 하는지에 대해 이해하는 것으로 볼 수 있습니다. Explainability란 왜  모델이 그러한 판단 (decision-making)을 내렸는가에 대해 reasonable 한 설명을 할 수 있는가에 대한 것입니다. 딥러닝은 black box의 성격이 강한 over-hyperparameterized 된 모델입니다. 초창기에는 모델이 어떻게 돌아가는지보다는 성능, 즉, 도메인 데이터에 대해 잘 working 하는 것이 중점이었습니다. 특히 하지만 의료 분야의 경우 이러한 decision-making이 매우 중요한 분야 중 하나이기 때문에  Interpretability와 Explainability가 중요한 이슈일 것입니다. 


Explaining Deep Neural Networks

  • Input Attribution Method (TU Berlin)

딥러닝 모델의 예측 결과에 대해 시각적 해석을 돕는 방법입니다. LIME, CAM, Layer-wise Relevance Propagation(LRP) 등이 유명한 방법입니다. 여기서 LIME 과 CAM 의 경우, CNN 에만 사용할 수 있는 모형이고, LRP 의 경우 모든 Neural Net 에 사용할 수 있는 방법입니다. 



  • XCAD: Explainable Computer Aided Diagnosis
  • Dissecting Deep Neural Networks (MIT)
  • Generating Examples inside of Deep Neural Networks (UNIST)


Explaining by Combining Explainable Models

  • Automatic Statistician (MIT/Cambridge)
  • Relational Automatic Statistician (UNIST)


Automatic statistician 은 학습된 모델을 여러개의 설명 가능한 모델로 분할하여 설명하는 기법입니다. 


https://www.automaticstatistician.com/index/



Finding Local Explanations (Model Agnostic Methods)

  • Counterfactual Generation (Toronto)
  • SHapley Additive exPlanation (SHAP)


위 방법은 모델 불가지론적 방법이라고 부르는 모델에 상관없이 어떤 모델이든 설명 가능하도록 하는 방법들입니다. 즉, 신경망 뿐만 아니라 다른 머신러닝 모델에도 적용할 수 있습니다. 


Uncertainty


다음은 루닛의 김민철님께서 딥러닝 모델의 Uncertainty 에 대해 다루어주셨습니다. 아래 3가지 내용에 대해 설명하였습니다. 


  • Calibration
  • Uncertainty within a model
  • AUC confidence interval


Calibration 의 정의는 다음과 같습니다.


the probability associated with the predicted class label should reflect its ground truth correctness likelihood.


즉, 예측 모형에서 클래스를 Probability 를 의미하는 값을 통해서 예측할 때, 그것이 실제 정답일 정도 (likelihood) 를 나타내야한다는 것입니다. 모델의 Calibration 을 점검하는 방법은 validation set 에서 probability 가 validation set에서 accuracy 와 비슷한지를 보면 되는데 이 부분에 대해서는 제 이전 포스트를 참조드립니다. Calibration 이 잘되었는지를 측정하기 위해 Expected Calibration Error (ECE) 가 기본적으로 쓰입니다. 


Calibration 이 잘안되는 문제는 training 도 중 NLL (Negative log likelihood) Overfitting이 생기기 때문에 일어납니다. 이러한 calibration 문제를 해결하기 위해 가능한 방법은 다음과 같습니다. 


The reasons for uncertainty

만약 calibration 이 잘 완료된 모델이 어떤 validation 데이터에 대해 0.95 라는 값을 내보냈을 때, 95 % 확률로 해당 label 이라는 뜻입니다. 하지만 일반적으로 모델에 사용하는 데이터는 population data가 아니라 sample 이며, "모델" 을 사용하는 것이기 때문에 이 값을 얼마나 믿어야할지에 대한 고민이 필요합니다. 

두 번째 주제인 Uncertainty within a model 에서는 이러한 모델이 만들어낸 output 의 불확실성을 어떻게 측정하는지에 관한 것입니다. 즉, 모델을 사용하고, sample 을 사용하는 것으로부터 오는 불확실성을 어떻게 제어할 것인가에 관한 것입니다. Linear regression 의 경우 예측값에 대한 분산을 구해서 confidence interval 을 수학적으로 구할 수 있지만 non-linear 에는 분산을 구할 수가 없습니다. 

따라서 bayesian 방법을 통해 모델의 파라미터의 분산을 추정하고 이를 통해 예측값의 분산을 구하는 방법을 주로 사용하게됩니다. 즉, 신경망의 모든 weight 에 사전 분포가 존재한다고 가정합니다. 이를 bayesian neural network 라고 합니다. 

Dropout as Bayesian Approximation


이를 실제로 하는 방법 중에 drop-out 을 이용하는 방법이 있습니다. 아래와 같은 방법으로 model uncertainty 를 구하게됩니다. 


1. Apply Dropout in all layers

2. Train the NN with SGD

3. During the test phase

a. Inference multiple times

b. Aggregate the result to approximate the posterior distribution


ref. Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning (ICML 2016)


요약


Why uncertainty?

  • sample vs population
  • Model parameter and complexity
  • Non linear models like Deep NN have no closed form solution to model variance
  • Bayesian models offer a tractable way to approximate uncertainty within the model


AUC and Confidence Interval


classification 문제에서 label 을 확률값 또는 스코어를 의미하는 값을 통해 예측할 때 주로 사용되는 measure는 Area under curve (AUC) 입니다. 특히 의료분야에서는  모델이 case 와 control을 얼마나 잘 discrimination 할 수 있는지에 대해 default로 사용되는 measure 라고 볼 수 있습니다. 그리고 AUC 의 한 가지 중요한 성질은 Mann-Whitney-Wilcoxon 2-sample U-statistic 과 같다는 것입니다. (Wilcoxon 1945; Mann and Whitney 1947).



왜 그런지에 대해 생각하지 않고, AUC와  U-statistic 이 같은 것이라면, AUC 는 다음과 같은 뜻을 같습니다. 


"disease, non-disease 인 sample 각각 random 하게 하나 씩 뽑았을 때, disease 인 사람이 더 클 확률"


AUC의 confidence interval 을 이러한 Wilcoxon U-stat 이 sample size 가 클 때 정규분포를 따른다는 사실을 이용해 구할 수 있습니다 (Hanley and McNeil (1982))


만약 AUC의 95 % confidece interval 이 (a, b) 인 경우에 이를 어떻게 해석하는 방법은 다음과 같습니다.


같은 population 에서 같은 수의 sample 을 뽑아서 같은 model 을 여러번 만들었을 때, 실제 AUC 가 (a,b)에 포함될 확률이 95 % 이다.


하지만 모든 신뢰구간이 그렇듯 (a,b) 가 sample 을 뽑을 때마다 달라진다는 비판은 있을 수 있다고 생각합니다.


Meta-Learning


Meta-learning 세션에서는 아래와 같은 개념들을 다루었습니다.

  • One shot learning
  • Network Architecture Search (NAS)
  • Auto-agent (Augmentation rule 을 learning)
  • Population-based augmentation
  • optimization transfer (learn-to-learn)


Meta-learning 의 핵심은 task 마다 새로운 네트워크를 만들지 않고, 새로운 task 에 적용하는 것 (knowledge transfer) 입니다. 최종목적은 모델을 사람처럼 learning 하도록 하는 것입니다. 예를 들어, image classification 에서 동물의 종류를 classification 할 때, 각 class 마다 동물의 이미지가 한 장씩 있다고해보면, 모델은 제대로 학습할 수 없지만 사람은 단 한 장의 이미지만 보고도 classification 할 수 있습니다. 사람은 그만큼 적은수의 데이터를 가지고도 generalization 을 할 수 있습니다.  즉, 사람과 모델이 다른점은 지금까지 배워왔던 지식을 활용할 수 있다는 것입니다. 예를 들어 사람은 지금까지 살면서 쌓아온 지식을 토대로 동물 A와 동물 B가 다른 종이라는 것을 쉽게 파악할 수 있습니다. 하지만 모델은 각 task 마다 새로운 모델을 만들고 학습해야합니다. 이러한 문제를 해결하기 위한 분야가 meta-learning 입니다. 또한 Meta learning 의 범위는 매우 넓으며 network architecture search 나, hyper parameter optimization 같은 분야 (learning-to-learn) 도 meta-learning 으로 분류됩니다.

 

여드름을 유발하는 7개의 식품군

 

여드름은 전세계에서 10% 이상이 갖고 있는 아주 흔한 피부 질환입니다. 많은 사람들이 어떤 식품을 먹고 여드름을 발생된 경험을 많이 하신 만큼, 여드름과 식품의 연관성은 학계에서도 논란이 되어왔는데요. 최근, 지금까지의 식습관-여드름의 관련성을 분석한 여러 논문들을 메타분석한 연구결과에 따르면 (1) 일부 식품군의 경우 여드름에 영향을 준다고 보는 것이 상당히 설득력이 있었다고 합니다. 본 포스팅에서는 연구 결과에 기반하여 여드름과 관련이 있다고 알려진 7개의 식품군에 대해서 다루어 보겠습니다.

 

 

1. 정제된 곡식 그리고 설탕

 

 

정제된 탄수화물을 많이 먹는 사람은 그렇지 않은 사람에 비해 여드름을 더 많이 갖고 있었습니다. (2) 

정제된 탄수화물(refined carbohydrates)이란 아래와 같이 탄수화물(밀, 쌀, 설탕 등)을 정제한 식품을 말합니다.

 

1. 빵, 크래커, 시리얼, 밀가루로 만든 디저트

2. 파스타

3. 흰쌀, 국수

4. 탄산음료 등의 설탕이 첨가된 음료

5. 메이플 시럽, 꿀 

 

한 연구에서 설탕 첨가물을 자주 섭취하는 사람은 그렇지 않은 사람에 비해 여드름에 대한 상대 위험도가 30% 높았고, 페이스트리, 케이크를 섭취하는 사람은 위험도가 20% 높았습니다. 이러한 식품들은 당을 많이 포함하고 있기 때문에 섭취시 매우 빠른 속도로 혈당(blood sugar)을 높이며, 이것이 체내 인슐린 농도를 높여 여드름에 발생에 기여하기 때문입니다. 인슐린은 남성호르몬인 안드로겐을 활성화시키며 insulin-like growth factor 1 (IGF-1)를 증가시킵니다. 이러한 것들이 피부 세포를 빠르게 성장하게 만들며, 피지 분비를 많게 만들어 여드름을 유발하게 됩니다. 

 

 

2. 유제품

 

 

여러 연구에서 청소년기의 우유 섭취가 여드름에 영향을 준다는 연구 결과가 발표되었습니다. (3)(4) 이러한 연관성은 성인에게서도 마찬가지로 발견이 되었는데요, 우유와 아이스크림을 꾸준히 섭취하는 사람은 여드름이 발생할 위험도가 4배에 달했습니다. (5) 하지만 이러한 연관성이 인과성이 아닐 수도 있는데, 유제품이 왜 여드름에 형성에 영향을 주는지 명확하게 밝혀져 있지 않기 때문입니다. 

 

몇 가지 가설을 소개하면 다음과 같습니다. 

 

1. 우유는 혈당으로 인해 인슐린이 올라가는것과는 독립적인 경로로 체내 인슐린 수치를 증가시킨다고 알려져 있습니다. 따라서 위 1번에서의 메커니즘과 동일하게 피지 분비가 많아지며 여드름이 발생한다는 것입니다.

2. 우유는 간을 자극하는 아미노산을 함유하고 있는데 이 아미노산이 간을 자극하게 되면 IGF-1 의 생성이 많아지게 되고 이는 여드름의 발생에 기여한다는 것입니다. 

 

하지만 유제품에 관해서는 정확히 어떤 유제품을 어느정도로 먹었을 때 여드름이 유발되는지 아직 명확하게 밝혀지지 않아 더 많은 연구 결과가 필요합니다. 

 

 

3. 패스트 푸드

 

 

 

다음은 패스트푸드입니다. 소위 말하는 "서양식 식습관", 고칼로리 고탄수화물 고지방식의 대표적인 식품이 바로 패스트푸드인데요. 이러한 햄버거, 너겟, 감자튀김, 핫도그, 탄산, 밀크쉐이크 등의 서구식 식습관은 여드름과 매우 강한 연관성을 갖습니다 (6). 한국과 인종적으로 비슷한 중국 청소년 5,000 명을 대상으로한 여드름 연구에 따르면, 고지방식 및 패스트푸드의 정기적인 섭취는 여드름의 발생을 각각 43%, 17% 증가시켰습니다. 또한 터키인을 대상으로한 연구에 따르면 햄버거와 소시지를 빈번하게 먹는 사람은 여드름의 위험도가 24% 높았습니다. 

 

하지만 아직까지 패스트푸드가 왜 여드름을 유발시키는지에 대해서는 위에서 언급한 인슐린의 증가로 인한 효과 이외에는 명확하게 밝혀진 바가 없는데요. 한가지 가설로는 서양식 식습관이 "유전자 발현량 (gene expression level)" 을 변화시키고, 이로 인해 체내 호르몬 수치에 이상이 생겨 여드름을 유발한다는 것입니다 (7)

 

 

 

Potential role of FoxO1 and mTORC1 in the pathogenesis of Western diet-induced acne (Exp Dermatol. 2013)

 

하지만 이러한 연구 결과는 실험자에게 음식을 먹은 후에 여드름이 발생하는 것을 직접 관찰하는 방식의 "실험연구" 가 아니라 설문지를 기반으로한 연구이기 때문에 서양식 식습관을 주로 하는 사람들이 여드름의 발생이 많다 라는 결론을 내릴 수는 있지만, 서양식 식습관이 여드름의 발생에 원인이 된다고 단정짓기는 어렵습니다. 따라서 정확한 원인을 파악하기 위해서는 더욱 연구가 필요합니다. 

 

 

4. 오메가-6 지방산이 많은 식품

 

 

 

오메가 지방산? 그거 몸에 좋은거 아니야? 라고 생각하시는 분도 있으시겠습니다. 하지만 몸에 좋다고 알려져 있는 것은 호두, 등푸른 생선 등에 많이 함유되어있는 오메가-3 지방산이며 이와 다르게 서구식 식습관에 많이 포함되어 있는 오메가-6 지방산의 섭취는 여드름의 발생과 관련성이 있다는 연구 결과가 많이 보고되었습니다. 

 

서구식 식사는 옥수수와 대두유(soybean oil)같이 오메가-6 지방산이 많이 들어있는 식품은 다양한 반면 오메가-3 지방산을 포함한 식품은 적다는 특징이 있습니다. 이러한 오메가-3와 오메가-6 지방산의 불균형은 몸을 염증에 취약한 상태로 만들며, 이로 인해 피부에 여드름 발생이 더욱 쉽게 일어나게 됩니다. 

 

오메가-6 지방산을 포함한 식품

 

1. 가금류 (닭, 오리 등)

2. 계란

3. 호두, 땅콩

4. 참기름

5. 시리얼

 

하지만 오메가-6 지방산의 과다로 인한 오메가-3 지방산과의 불균형은 부족한 오메가-3를 보충해줌으로써 해결할 수 있는데요, 오메가-3 지방산 영양제를 섭취하는 것은 여드름 정도를 조금은 감소시키는데 기여하였습니다 (8). 이처럼 오메가-6 지방산의 과다가 여드름을 유발한다는 것은 아직 실험연구가 없긴 하지만 어느정도 명확해보입니다.

 

 

5. 초콜렛

 

 

다음으로는 달콤한 맛이 매혹적인 초콜렛입니다. 대부분의 초콜릿들이 과다한 설탕이 포함되어 있는 경우가 많기 때문에 초콜릿이 여드름 발생에 기여한다는 것은 예상이 되는데요. 하지만 다크초콜렛은 어떤지에 대해서가 논쟁거리였습니다. 

 

최근 여드름이 있는 사람에 대해 다크초콜렛의 연관성을 연구한 연구결과에 따르면 99% 다크초콜렛을 매일 25g씩 섭취한 사람은 2주 후 여드름 발생 지역이 증가하였다는 결과가 보고되었습니다 (9). 다른 연구에서는 연구 참여자를 두 그룹으로 나누어 한쪽에는 100%의 코코아 파우더를 다른 한쪽에는 가짜약인 플라시보를 주어 1주 후에 여드름 발생을 평가하였는데요. 1주 후에 코코아를 준 그룹에서 여드름이 더 많이 관찰되었다고 합니다 (10)

 

 

Double-blind, Placebo-controlled Study Assessing the Effect of Chocolate Consumption in Subjects with a History of Acne Vulgaris. (J Clin Aesthet Dermatol. 2014)

 

하지만 초콜렛의 경우도 마찬가지로 어떤 기전으로 인해 여드름 발생에 영향을 주는지는 정확하게 알려져 있지 않은데요. 한 가지 가능성은 초콜릿을 먹는것이 여드름을 발생시키는 박테리아에 대한 면역 체계의 반응을 촉진시키고, 이것이 여드름의 발생에 기여한다는 것입니다 (11)

 

 

6. 단백질 파우더

 

 

 

단백질 파우더에는 류신, 글루타민 같은 아미노산이 많이 포함되어있는데 이러한 아미노산은 피부세포를 분열을 빠르게 만듭니다. 그리고 정상보다 빠르게 피부세포가 분화하는 것은 여드름 발생의 원인이 됩니다. 또한 단백질 파우더에 있는 아미노산은 인슐린의 분비도 증가시키기 때문에 이로 인해서도 여드름이 발생하게 됩니다 (12).  

 

한 남성 운동선수들을 대상으로한 사례 연구에서는 단백질 파우더 섭취를 하는 운동선수의 경우 여드름이 많이 나며 여드름 치료제와 약을 사용함에도 여드름이 치료되지 않는 경우가 많았다고 합니다. 하지만 단백질 파우더 섭취를 그만하였을 때는 이런 여드름 증상이 대부분 깔끔하게 사라졌다고 합니다. (13)

 

다른 관찰 연구에서도 마찬가지로 헬스장에 다니는 성인남녀를 대상으로 연구를 하였는데 단백질 파우더 섭취 일수가 증가할 수록 여드름 발생 지역이 증가하였다고 보고하였습니다. 이러한 경향성은 여성여드름 가족력이 없는 사람에게서 더 심하게 나타났다고합니다. 

 

 

Incidence of acne vulgaris in young adult users of protein-calorie supplements in the city of João Pessoa--PB. (An Bras Dermatol. 2013)

 

하지만 위 연구들은 대부분 규모가 작은 연구이기 때문에, 단백질 파우더와 여드름의 정확한 인과관계 규명을 위해서는 더 많은 대상자를 대상으로한 규모가 큰 연구가 필요해 보입니다. 

 

 

7. 개인적인 알러지가 있는 식품

 

 

여드름은 염증성 질환으로 알려져있습니다. 그렇기 때문에 항염증성 약이 여드름 치료에 효과적인 것이죠. 염증이란 상해에 대한 생체 조직의 면역 반응입니다. 만약 어떤 사람이 A 라는 식품에 민감한 특성이 있다면 A 식품을 먹으면 피부가 이를 항원으로 여겨 면역 체계를 발동시키게 되고 이것이 피부에 염증을 일으켜 여드름이 되는 것입니다 (14)

 

하지만 이러한 면역 반응으로 인해 여드름을 유발하는 식품이 무엇인지에 대해서는 사람마다 다른 것이기 때문에, 개인이 이를 파악하기 위해서는 일상생활에서 먹은 음식과 이후에 여드름이 발생하는지를 기록해 먹지 말아야할 식품을 검출하는 식으로 알 수 있습니다. 이를 제외식이법 (elimination diet) 라고도 하는데요 식품 알러지를 치료할 목적으로 식품을 하나씩 제외해가면서 증상을 확인하는 것을 말합니다. 

 

알러지를 유발할 수 있는 식품은 매우 많기 때문에 이러한 알러지로 인한 여드름의 발생은 아직까지 많은 부분이 알려지지 않았습니다 (15). 따라서  스스로 자신에게 알러지를 유발하는 음식을 파악하고 이러한 식품들을 피하는 식습관을 유지하는 것이 여드름을 줄이는데 중요하다고 할 수 있겠습니다. 

 

 

참고

https://www.healthline.com/nutrition/foods-that-cause-acne