9장. 문맥 창과 도구 사용

기억과 책상 사이

오래전에 읽은 논문을 기억만으로 설명해보라고 하면 누구나 조금 불안해집니다. 제목은 떠오르지만, 표본 수가 몇 명이었는지 흐릿합니다. 결론은 기억나지만, 그 결론이 어떤 실험 조건에서 나온 것인지 헷갈립니다. figure의 모양은 대충 떠오르는데, 막상 축 이름을 묻는 순간 말이 막히기도 합니다. 그런데 논문을 다시 펴놓고 설명하라고 하면 사정이 달라집니다. 눈앞에 초록과 그림 설명과 표가 있기 때문입니다.

LLM을 사용할 때도 이 차이가 중요합니다. 모델의 매개변수 안에 들어 있는 지식은 사람의 오래된 기억과 비슷합니다. 엄밀히 말하면 사람의 기억과 같은 방식은 아니지만, 사용자 입장에서는 그렇게 느껴집니다. 무엇인가를 배웠고, 그 배움의 흔적을 바탕으로 답을 만들어냅니다. 반면 문맥 창 안에 넣어준 텍스트는 눈앞에 펼쳐놓은 자료에 가깝습니다. 논문 초록, 그림 설명(figure legend), 실험 조건, 표, 코드, 학술 검색 결과, 강의 노트 일부를 프롬프트(prompt) 안에 넣어주면 모델은 그것을 보면서 답을 만들 수 있습니다.

용어 메모

매개변수: 모델 안에 저장되어 있는 수많은 숫자입니다. 오래된 학습의 흔적처럼 작동합니다.

문맥 창: 모델이 지금 답변을 만들 때 한 번에 읽을 수 있는 입력 공간입니다.

그림 설명(figure legend): 논문 그림 옆이나 아래에 붙는 설명문입니다.

프롬프트(prompt): 사용자가 모델에게 주는 질문, 자료, 지시문을 묶어 부르는 말입니다.

이 차이는 실제 공부에서 매우 큽니다. “이 논문을 요약해줘”라고만 묻는 것과, 논문 초록과 방법 일부와 주요 표를 함께 넣고 “이 자료 안에서만 연구 질문, 실험 설계, 핵심 결과, 한계를 나누어 설명해줘”라고 묻는 것은 전혀 다른 일입니다. 앞의 질문은 모델의 일반 지식과 논문 요약 문체에 기대는 일입니다. 뒤의 질문은 눈앞의 자료를 읽고 정리하게 하는 일에 가깝습니다. 사람도 원문 없이 기억만으로 설명할 때보다, 원문을 펴놓고 설명할 때 훨씬 정확합니다.

문맥 창을 정리하는 일

카파시는 LLM을 설명하면서 문맥이 모델에게 일종의 작업 공간이 된다는 점을 여러 번 강조합니다. 모델은 긴 답을 만들 때도 한 번에 완성된 생각을 꺼내는 것이 아니라, 지금까지 나온 토큰과 입력된 문맥을 보며 다음 토큰을 이어갑니다. 그래서 어떤 자료를 문맥 안에 넣어주느냐가 답의 질을 바꿉니다. 그는 추론 모델(reasoning model)을 설명하면서도 모델이 생각할 시간을 토큰의 형태로 써야 한다는 말을 합니다 (링크). 학생 입장에서는 이 말을 이렇게 받아들여도 좋습니다. 모델에게도 읽을 자료와 메모할 공간과 차근차근 생각할 시간이 필요합니다.

의생명과학에서는 이 차이가 더 중요합니다. 유전자 이름 하나가 비슷하게 생긴 다른 유전자와 헷갈릴 수 있고, 약물 이름 하나가 다른 계열의 약물처럼 보일 수 있습니다. 질병명도 마찬가지입니다. 모델에게 “BRCA에 대해 설명해줘”라고 묻는 것과 “이 논문에서 BRCA1 변이를 어떻게 정의했는지, 이 문단 안의 표현만 근거로 설명해줘”라고 묻는 것은 다릅니다. 앞의 질문은 넓은 설명을 불러오고, 뒤의 질문은 특정 자료 안에서 답을 찾게 합니다.

문맥 창은 그래서 단순히 길이가 긴 입력칸이 아닙니다. 무엇을 믿고 답할 것인지 정하는 자리입니다. 학생이 논문을 읽을 때 형광펜으로 밑줄을 긋고, 여백에 질문을 적고, 중요한 표를 따로 표시하는 것과 비슷합니다. 아무 자료나 많이 넣는다고 좋은 답이 나오는 것은 아닙니다. 관련 없는 자료가 섞이면 모델은 엉뚱한 연결을 만들 수 있습니다. 오래된 리뷰와 최신 논문이 함께 들어가 있으면 어느 쪽을 우선해야 하는지 혼란스러울 수 있습니다. 서로 다른 종, 서로 다른 조직, 서로 다른 실험 조건의 데이터가 한 프롬프트 안에 섞이면, 모델은 차이를 충분히 분리하지 못한 채 매끄러운 설명을 만들 수도 있습니다.

그래서 좋은 사용자는 자료를 넣기 전에 작은 편집자가 됩니다. 지금 답에 필요한 자료가 무엇인지 고릅니다. 논문 전체를 무작정 넣기보다, 연구 질문과 직접 관련된 초록, 방법, 결과, 그림 설명, 표를 나눠 넣습니다. “이 자료만 근거로 답하라”고 말하기도 하고, “확실하지 않은 내용은 추측이라고 표시하라”고 말하기도 합니다. 모델이 답을 만든 뒤에는 원문으로 돌아가 숫자와 문장을 확인합니다. 이 과정은 번거로워 보이지만, 의생명과학에서는 이 번거로움이 바로 안전장치입니다.

도구마다 맡길 일이 다르다

도구 사용은 이 원리의 연장선에 있습니다. 모델에게 모든 것을 머릿속으로 처리하게 하지 않고, 필요한 일을 외부 도구에 맡기는 것입니다. 검색은 최신 논문이나 드문 사실을 문맥 안으로 가져오는 도구입니다. 코드 실행은 숫자 계산과 파일 처리를 정확한 절차로 확인하는 도구입니다. 데이터베이스 조회는 유전자명, 변이 표기, 단백질 기능, pathway 정보를 원자료에 연결하는 도구입니다. LLM이 설명을 잘한다고 해서 표의 행 개수를 머릿속으로 세게 할 필요는 없습니다. 유전자 리스트의 교집합, 결측값 개수, 평균과 표준편차, p-value 계산은 코드로 확인하는 편이 낫습니다.

용어 메모

도구 사용: 모델이 말로만 답하지 않고 검색, 코드 실행, 데이터베이스 조회 같은 외부 기능을 쓰는 일입니다.

pathway: 세포 안에서 여러 분자들이 이어져 신호나 반응을 만드는 길입니다.

p-value: 관찰한 차이가 우연만으로도 나올 수 있는지 따져볼 때 쓰는 통계값입니다.

학생들이 자주 하는 실수는 모델의 언어 능력을 계산 능력으로 착각하는 것입니다. 모델은 표를 보고 “대체로 이런 경향이 있다”고 말할 수 있습니다. 하지만 실제로 몇 행이 있는지, 특정 조건을 만족하는 샘플이 몇 개인지, 중복된 gene symbol이 몇 개인지는 실행으로 확인해야 합니다. “이 파일을 읽고 group별 샘플 수를 코드로 계산해줘. 실행 결과도 보여줘.” 이렇게 묻는 것이 훨씬 낫습니다. 설명은 말로 받을 수 있지만, 계산은 실행으로 받는 습관이 필요합니다.

처음에는 어떤 일을 어떤 도구에 맡겨야 하는지 헷갈릴 수 있습니다. 이때는 일을 네 칸으로 나누어 보면 좋습니다.

하고 싶은 일 더 어울리는 도구 이유
최신 논문이나 드문 사실 찾기 검색, PubMed, 학술 데이터베이스 모델의 기억보다 방금 찾은 자료가 더 가깝습니다.
표의 행 개수, 평균, 교집합 계산 코드 실행 말로 세기보다 실행 결과가 검증하기 쉽습니다.
유전자 이름, 변이 표기, 질병 연결 확인 ClinVar 같은 전문 데이터베이스 표준 이름과 출처가 필요합니다.
어려운 문단을 쉬운 말로 풀기 LLM의 설명 능력 문장을 낮은 계단으로 내려주는 데 강합니다.

이 표의 목적은 도구를 복잡하게 늘리는 데 있지 않습니다. 오히려 반대입니다. 모델에게 모든 일을 한꺼번에 맡기지 말고, 말로 풀 일과 실행으로 확인할 일과 원자료로 돌아갈 일을 나누자는 뜻입니다. 고등학생이나 1학년 학생이 처음부터 모든 데이터베이스를 능숙하게 쓸 필요는 없습니다. 다만 “이 질문은 기억으로 답하게 해도 되는가, 아니면 찾아보고 계산해야 하는가”를 묻기 시작하면 AI 사용의 질이 달라집니다.

RAG와 LLM-Wiki의 차이

이 지점에서 RAG라는 말이 등장합니다. RAG는 검색으로 가져온 자료를 바탕으로 답을 생성하는 방식입니다. 논문, 노트, 데이터 설명서, 프로토콜을 잘게 나누어 저장해두고, 질문이 들어오면 관련 있는 조각을 찾아 문맥에 넣은 뒤 답을 만들게 합니다. 연구자에게는 매우 매력적인 방법입니다. PubMed 논문, 실험 노트, 코드 설명, 데이터베이스 문서를 연결해두면 모델이 아무 근거 없이 답하는 대신, 내가 가진 자료를 바탕으로 답할 수 있기 때문입니다.

용어 메모

RAG: 관련 자료를 검색해 문맥에 넣은 뒤, 그 자료를 보고 답하게 하는 방식입니다.

프로토콜: 실험이나 분석을 어떤 순서와 조건으로 할지 적은 절차서입니다.

그러나 RAG가 모든 것을 해결하지는 않습니다. 검색은 관련 있어 보이는 자료를 찾아올 수 있지만, 그 자료들이 서로 어떤 관계에 있는지까지 자동으로 이해해주지는 않습니다. 어떤 논문은 오래되었지만 여전히 기본 개념을 잘 설명하고, 어떤 논문은 최신이지만 특정 조건에만 맞습니다. 어떤 결과는 내 질문과 직접 관련이 있고, 어떤 결과는 비슷해 보이지만 다른 조직이나 다른 종에서 나온 것입니다. 연구에서는 단순히 정보를 찾는 일보다, 정보들 사이의 관계를 세우는 일이 더 어렵습니다.

이 책에서 LLM-Wiki라고 부르는 접근이 흥미로운 이유도 여기에 있습니다. 여기서 LLM-Wiki는 아직 학생들이 외워야 할 표준 학술 용어가 아닙니다. 이 책에서는 “LLM이 읽고 활용할 수 있도록 개념 노트를 서로 연결해두는 공부 방식”을 가리키는 이름으로 쓰겠습니다. 자료를 그냥 저장하고 검색하는 데서 멈추지 않고, 개념별 문서로 풀고, 서로 연결하고, 점점 하나의 위키처럼 엮어가는 접근입니다. 연구자에게 필요한 것은 검색 시스템만이 아니라, 지식을 만들어가는 시스템에 가깝습니다. 학생이 논문을 읽고 요약한 내용이 흩어진 메모로 끝나지 않고, “이 논문은 무엇을 물었나”, “어떤 방법을 썼나”, “내가 아직 모르는 용어는 무엇인가” 같은 작은 문서로 이어진다면 그 노트는 다음 질문을 위한 발판이 됩니다.

용어 메모

LLM-Wiki: 이 책에서 쓰는 말로, LLM이 읽고 활용할 수 있도록 개념 문서들을 연결해 지식 구조를 만드는 방식입니다.

이 차이를 공부에 적용해봅시다. 시험 전날에 “세포분화에 대해 알려줘”라고 묻는 것은 검색형 공부에 가깝습니다. 당장의 답을 얻을 수는 있지만, 내 머릿속 구조가 크게 바뀌지는 않을 수 있습니다. 조금 더 익숙한 예로 말하면, 수학 오답노트를 문제 번호 순서로만 쌓아두는 것과, “분수 계산 실수”, “조건을 잘못 읽은 문제”, “그래프 해석 문제”처럼 원인을 나누어 다시 묶는 것은 다릅니다. 생명과학 노트도 마찬가지입니다. 한 학기 동안 읽은 논문과 강의 내용을 바탕으로 “세포분화”, “전사인자”, “대조군”, “측정값” 같은 작은 문서를 만들고, 각 문서가 서로 어떻게 이어지는지 적어둔다면 이야기가 달라집니다. 그때 AI는 단순히 답을 주는 도구가 아니라, 내가 만든 지식 구조를 다시 비추는 도구가 됩니다.

에이전트에게 맡길 때 남길 것

에이전트는 문맥과 도구 사용이 길게 이어진 형태로 볼 수 있습니다. 한 번 검색하고 끝나는 것이 아니라, 검색하고, 읽고, 코드를 만들고, 실행하고, 실패하면 다시 고치고, 결과를 보고하는 흐름이 생깁니다. 카파시도 에이전트를 긴 시간에 걸쳐 작업을 수행하고, 사람에게 진행 상황을 보고하며, 사람의 감독을 필요로 하는 시스템으로 설명합니다 (링크). 그래서 에이전트와 함께 일할 때는 문맥과 도구가 더 중요해집니다. 무엇을 읽게 할지, 어떤 파일을 건드릴 수 있게 할지, 어떤 결과를 반드시 확인하게 할지 정해야 합니다. 에이전트는 한 번 답하고 사라지는 말풍선이 아니라 여러 단계를 이어가는 작업자에 가깝기 때문에, 초반의 잘못된 가정이 뒤쪽 결과에 계속 누적될 수 있습니다. 처음 파일 이름을 잘못 읽으면 그다음 그래프와 보고서가 모두 그 오류 위에 세워집니다. 처음 논문 초록을 과장해서 해석하면 이후 문헌 정리도 그 과장에 맞춰질 수 있습니다. 그래서 에이전트에게는 더 좋은 문맥이 필요하고, 사람에게는 더 꼼꼼한 중간 확인이 필요합니다.

예를 들어 에이전트에게 수업에서 받은 작은 데이터 파일을 살펴보게 한다고 합시다. 좋은 지시는 “이 데이터를 분석해줘”가 아닙니다. 먼저 어떤 열이 무엇을 뜻하는지 표로 만들게 하고, 샘플 수와 조건을 확인하게 하고, 원본 파일은 수정하지 못하게 하고, 그래프를 만들 때마다 어떤 열을 사용했는지 기록하게 해야 합니다. 결과 그림만 보는 것이 아니라, 중간에 어떤 값이 빠졌는지, 어떤 값을 서로 비교했는지, 그림의 축이 무엇인지 보고하게 해야 합니다. 에이전트가 유능해질수록 이런 지시는 더 중요해집니다.

왜냐하면 에이전트는 작업을 빠르게 진행하면서도 자신이 어디서 미끄러졌는지 모를 수 있기 때문입니다. 파일 이름을 잘못 읽었는데도 그럴듯한 표를 만들 수 있고, 훈련 데이터와 검증 데이터를 섞어버릴 수 있으며, 논문 초록의 한 문장을 과장해 결론처럼 쓸 수 있습니다. LLM의 답이 매끄러울수록 사람은 더 쉽게 안심합니다. 그러나 연구에서 안심은 증거를 확인한 뒤에야 와야 합니다.

문맥 창과 도구 사용을 배운다는 것은 결국 믿음의 위치를 조정하는 일입니다. 모델의 말투를 믿는 것이 아니라, 모델이 어떤 자료를 보았는지, 어떤 도구를 썼는지, 어떤 결과를 근거로 답했는지 확인하는 것입니다. 좋은 답변은 예쁜 문장만으로 만들어지지 않습니다. 좋은 입력 자료, 정확한 도구 실행, 남겨진 출처, 사람이 다시 확인한 판단이 함께 있어야 합니다.

이 원칙은 작은 과제에서도 그대로 적용됩니다. 예를 들어 어떤 학생이 “TP53과 관련된 질병을 알려줘”라고 물었다고 합시다. 모델은 곧바로 그럴듯한 질병 목록을 만들 수 있습니다. 하지만 더 좋은 흐름은 조금 다릅니다. 먼저 TP53이라는 표기가 정확한지 확인하고, 사람 유전자인지 생쥐 유전자인지처럼 생물종을 분명히 한 뒤, ClinVar 같은 전문 데이터베이스나 논문 원문에서 근거를 확인하게 하는 것입니다. 지금 데이터베이스 이름을 많이 외울 필요는 없습니다. 한 가지 믿을 만한 출처에서 공식 표기와 근거를 확인한다는 습관이 먼저입니다. 모델의 흐릿한 기억보다 이런 출처가 훨씬 구체적이지만, 출처마다 목적과 범위가 다르므로 서로 같은 무게로 읽어서는 안 됩니다. 모델이 답을 빨리 만드는 능력보다, 답이 어떤 근거 위에 있는지 드러내게 하는 능력이 더 중요합니다.

용어 메모

유전자 공식 약어(gene symbol): 유전자를 짧게 부르는 공식 약어입니다. TP53 같은 표기가 여기에 해당합니다.

생물종(species): 사람, 생쥐, 초파리처럼 어떤 생물종인지 가리키는 말입니다.

ClinVar: 변이와 질병 관련 정보를 확인할 때 쓰는 대표적인 전문 데이터베이스 중 하나입니다.

데이터베이스 주석: 데이터베이스가 유전자나 단백질에 붙여 둔 설명 정보입니다.

논문 읽기에서도 마찬가지입니다. 초록만 넣고 요약을 받으면 간단하지만, 연구의 위험한 지점은 보통 방법과 보충자료에 숨어 있습니다. 어떤 연구 대상 집단을 썼는지, 제외 기준은 무엇인지, 실험 날짜나 장비 차이에서 온 흔들림을 어떻게 줄였는지, 통계 검정은 어떤 가정을 두었는지, 그림 설명이 실제로 무엇을 보여주는지 확인해야 합니다. 그래서 AI에게 논문을 읽힐 때는 “좋게 요약해줘”보다 “이 연구가 틀릴 수 있는 지점을 찾아줘”라는 질문이 더 유익할 때가 많습니다. 좋은 독자는 논문을 칭찬하는 사람만이 아니라, 논문이 기대고 있는 다리를 확인하는 사람입니다.

용어 메모

보충자료: 논문 본문에 다 넣지 못한 추가 표, 그림, 방법 설명입니다.

통계 검정: 관찰한 차이가 우연인지 아닌지 따져보기 위한 계산 절차입니다.

LLM-Wiki식 노트는 이런 읽기를 오래 남기는 데 도움을 줍니다. 오늘 읽은 논문의 요약이 내일 사라지지 않고, “세포분화”, “전사인자”, “실험 조건”, “대조군”, “측정값” 같은 개념 문서에 연결되면 다음 공부가 쉬워집니다. 처음에는 작은 메모라도 괜찮습니다. 이 논문은 무엇을 물었는지, 어떤 방법이 낯설었는지, 어떤 한계가 있었는지, 내 질문과 어떻게 이어지는지 적어두면 됩니다. 나중에 에이전트는 이 노트들을 읽고, 내가 어떤 맥락에서 질문하는지 더 잘 이해할 수 있습니다.

여기서 중요한 것은 노트의 양보다 구조입니다. 논문을 많이 저장해두었다고 해서 지식이 쌓이는 것은 아닙니다. PDF가 가득한 폴더는 기억을 대신해주지 않습니다. 어떤 논문이 어떤 개념과 연결되는지, 어떤 결과가 서로 충돌하는지, 어떤 용어가 분야마다 다르게 쓰이는지 표시해야 합니다. AI는 그 구조를 만드는 일을 도와줄 수 있지만, 구조의 기준은 연구자의 질문에서 나옵니다. 그래서 문맥 창의 문제는 결국 공부의 문제로 이어집니다. 무엇을 가까이에 두고 생각할 것인가. 무엇을 서로 연결해 기억할 것인가.

의생명과학 학생에게 이 태도는 처음부터 몸에 익히는 편이 좋습니다. 논문을 읽을 때는 원문을 옆에 두고, 데이터를 볼 때는 코드 실행 결과를 옆에 두고, AI가 설명한 내용을 들을 때는 출처와 조건을 옆에 두십시오. AI는 여러분의 기억을 넓히고, 손을 빠르게 하고, 초안을 만들어줄 수 있습니다. 그러나 무엇을 눈앞에 놓고 생각할지는 여러분이 정해야 합니다. 문맥 창은 모델의 눈앞에 놓인 책상입니다. 그 책상 위에 무엇을 올릴지 고르는 일이, 앞으로의 공부와 연구에서 점점 더 중요한 능력이 됩니다.

이 책상 비유를 조금 더 밀고 가보면, 좋은 연구자는 책상 정리를 잘하는 사람입니다. 필요한 논문은 가까이에 두고, 오래된 자료와 최신 자료를 구분하고, 서로 다른 실험 조건의 데이터를 섞어놓지 않으며, 방금 계산한 결과와 아직 확인하지 않은 추측을 한곳에 던져두지 않습니다. 문맥 창도 그렇게 써야 합니다. 모델에게 너무 많은 것을 한꺼번에 넣으면, 마치 지저분한 책상 위에서 중요한 논문 한 장을 찾는 일처럼 어려워질 수 있습니다. 반대로 너무 적게 넣으면, 모델은 빈칸을 자기 기억으로 채우려 합니다. 그래서 좋은 프롬프트는 길이가 아니라 정리가 중요합니다. 필요한 자료를 고르고, 자료의 성격을 알려주고, 답변의 경계를 정하고, 확인할 지점을 지정해야 합니다. 이것은 귀찮은 형식이 아니라 사고의 위생입니다. 실험실에서 오염을 막기 위해 작업대를 정리하듯, AI와 공부할 때도 문맥을 정리해야 합니다. 정리된 문맥은 더 좋은 답변을 만들 뿐 아니라, 사용자가 자신의 질문을 더 분명하게 보게 합니다.

도구 사용도 결국 같은 원칙을 따릅니다. 좋은 실험실에서는 장비마다 쓰임이 다르고, 현미경으로 할 일과 피펫으로 할 일을 섞지 않습니다. 실험실이 아직 낯선 학생이라면 자와 계산기와 사전을 한꺼번에 같은 도구로 쓰지 않는다고 생각해도 됩니다. LLM과 함께 일할 때도 검색, 코드 실행, 데이터베이스 조회, 문장 생성의 역할을 나누어야 합니다. 최신 논문은 검색으로 찾고, 숫자는 코드로 계산하고, 유전자와 변이의 표준 이름은 데이터베이스로 확인하고, 설명문은 모델의 언어 능력을 빌려 다듬는 식입니다. 하나의 모델에게 모든 일을 말로 처리하게 하면 편하지만, 편한 만큼 오류가 숨어들 자리가 생깁니다. 반대로 각 도구의 역할을 분명히 하면 결과를 확인하기가 쉬워집니다. 학생은 AI에게 무엇을 물을지만 배우는 것이 아니라, 어떤 도구로 확인할지도 함께 배워야 합니다. 그것이 문맥 창과 도구 사용을 공부하는 실제 이유입니다. 좋은 답은 좋은 도구 배치에서 나옵니다.

작은 실습

공개 초록 하나나 강의자료의 짧은 문단을 고른 뒤 같은 질문을 두 번 해보십시오. 먼저 자료 없이 주제만 말하고 “이 내용이 무엇을 보였는지 설명해줘”라고 묻습니다. 다음에는 그 문단을 붙여넣고 “아래 문단 안에서만 연구 질문, 방법, 결과, 한계를 나누어 설명해줘. 문단에 없는 내용은 추측이라고 표시해줘”라고 묻습니다. 두 답변에서 근거의 위치가 어떻게 달라지는지 표시해보면, 문맥 창이 단순한 긴 입력칸이 아니라 모델 앞에 놓인 책상이라는 비유가 훨씬 선명해집니다.

이 장의 이야기는 결국 “무엇을 모델 앞에 놓을 것인가”라는 질문으로 돌아옵니다. 학생이 공부할 때 책상 위에 교과서, 강의노트, 빈 종이, 계산기를 어떻게 올려두느냐에 따라 공부의 흐름이 달라지듯, 모델의 문맥에도 무엇을 넣고 무엇을 빼는지가 중요합니다. 너무 적게 주면 모델은 기억으로 빈칸을 채우려 하고, 너무 많이 주면 중요한 자료가 묻힙니다. 도구도 마찬가지입니다. 검색이 필요한 일을 기억으로 처리하게 하면 낡은 답이 나올 수 있고, 계산이 필요한 일을 말로 처리하게 하면 그럴듯한 실수가 나올 수 있습니다. 좋은 AI 사용자는 모델이 똑똑한지 아닌지만 묻지 않습니다. 모델 앞의 책상이 잘 정리되어 있는지, 필요한 도구가 제대로 놓여 있는지, 결과를 다시 확인할 길이 남아 있는지를 봅니다. 이것이 앞으로 의생명과학 학생에게 필요한 새로운 공부 습관입니다.