LLM은 의생명과학 학생에게 아주 강력한 도구가 될 수 있습니다. 낯선 개념을 처음 접할 때, 영어 자료나 논문을 읽기 전에 배경을 잡을 때, 코드 오류 앞에서 멈췄을 때, 실험 아이디어를 정리할 때 큰 도움을 줍니다. 에이전트까지 결합되면 할 수 있는 일은 더 넓어집니다. 파일을 읽고, 코드를 실행하고, 오류를 고치고, 결과를 요약하는 흐름이 한 번의 대화 안에서 이어질 수 있습니다.
LLM: 많은 글을 학습해 문장을 만들고 질문에 답하는 큰 언어 모델입니다.
에이전트(agent): 목표를 받아 파일 읽기, 코드 실행, 수정, 보고 같은 작업을 이어가려는 AI 시스템입니다.
하지만 이 도구는 권위가 아닙니다. 이 문장은 평범해 보이지만, 의생명과학에서는 아주 무겁습니다. 우리가 다루는 것은 유전자 이름, 질병명, 약물명, 변이 표기, 환자 데이터, 통계 결과, 실험 조건입니다. 이런 정보는 한 글자 차이로 의미가 달라질 수 있습니다. 매끄러운 설명과 믿을 만한 설명은 다릅니다. LLM은 문장을 자연스럽게 만드는 데 강하지만, 자연스러운 문장이 언제나 사실을 보증하지는 않습니다.
원칙을 하나씩 세어보면 많아 보이지만, 실제로는 세 가지 일로 모입니다. 자료를 지키고, 검증을 분리하고, 마지막 설명을 자기 자리로 되돌리는 일입니다.
| 묶음 | 포함되는 원칙 | 기억할 문장 |
|---|---|---|
| 자료 지키기 | 원문 확인, 자료 함께 주기, 원본 보존하기, 출처 기록(provenance) 남기기 | 무엇을 넣었고 어디서 왔는지 남깁니다. |
| 검증 분리하기 | 질문 잘게 나누기, 계산은 실행으로 확인하기, 발견과 확인 나누기, 상관과 개입 구분하기 | 말로 만든 답과 확인된 결과를 섞지 않습니다. |
| 자기 자리 지키기 | 평가 문제(benchmark)보다 실제 질문 보기, 자기 말로 다시 설명하기 | 마지막 판단과 설명은 학생에게 돌아옵니다. |
학생들이 가장 자주 묻는 것은 “그러면 언제 멈춰야 하나요”입니다. AI를 쓰지 말아야 할 순간을 모두 외울 수는 없지만, 멈춤 신호는 기억할 수 있습니다.
| 멈춤 신호 | 왜 멈추는가 | 다음 행동 |
|---|---|---|
| 친구 이름, 학번, 연락처, 건강 정보가 들어 있다 | 개인정보가 외부 서비스로 나갈 수 있습니다. | 익명화하거나 사용하지 않습니다. |
| 환자, 질병, 약물, 변이에 관한 판단이다 | 잘못된 정보가 실제 불안이나 피해로 이어질 수 있습니다. | 원자료, 전문가, 공식 데이터베이스로 확인합니다. |
| 모델이 논문 제목이나 DOI를 자신 있게 제시한다 | 존재하지 않는 출처를 만들 수 있습니다. | 링크가 열리는지, 본문 내용과 맞는지 직접 봅니다. |
| 숫자 계산이나 표 처리 결과가 필요하다 | 언어 모델은 계산을 말로 그럴듯하게 틀릴 수 있습니다. | 코드 실행 결과와 입력 파일을 확인합니다. |
| “수업 내부용”, “연구실 외부 공유 금지”라고 들은 자료다 | 편리함보다 자료 보안과 약속이 우선입니다. | 담당자에게 사용 가능 여부를 먼저 묻습니다. |
이 표는 겁을 주기 위한 금지 목록이 아닙니다. 오히려 AI를 오래 쓰기 위한 브레이크입니다. 자전거를 잘 타려면 페달을 밟는 힘만큼 멈출 줄도 알아야 합니다. AI 사용도 마찬가지입니다. 멈출 줄 아는 학생은 더 멀리 갈 수 있습니다.
그러므로 첫 번째 원칙은 원문으로 돌아가는 습관입니다. AI가 어떤 논문을 요약해주었다면, 그 논문이 실제로 존재하는지 확인해야 합니다. DOI가 맞는지, 저널과 연도가 맞는지, 모델이 말한 결과가 논문 본문에 정말 있는지 보아야 합니다. PubMed, Google Scholar, 학술지 페이지, 데이터베이스 원문을 확인하는 과정은 귀찮은 뒷정리가 아닙니다. AI 시대의 기본 문해력입니다. 특히 생명과 질병에 관한 주장은 반드시 원자료와 연결되어야 합니다.
두 번째 원칙은 질문을 잘게 나누는 것입니다. “이 논문을 설명해줘”라는 질문은 너무 큽니다. 처음에는 편하지만, 답이 막연해지기 쉽습니다. “이 초록에서 연구 질문, 사용한 데이터, 핵심 결과, 한계를 나누어 설명해줘”라고 물으면 훨씬 낫습니다. “이 데이터 분석해줘”보다 “이 파일에서 group 열을 기준으로 value의 분포를 비교하고, 결측값 개수와 샘플 수를 먼저 보고해줘”가 낫습니다. 질문을 잘게 나누면 모델의 답도 확인하기 쉬워집니다. 어디서 틀렸는지 찾을 수 있기 때문입니다.
세 번째 원칙은 자료를 함께 주는 것입니다. 모델의 오래된 기억에 기대기보다, 논문 초록, 방법, 그림 설명(figure legend), 표, 분석 코드, 데이터 설명서를 문맥 창 안에 넣어주는 편이 안전합니다. 다만 자료를 넣을 때는 두 가지를 동시에 생각해야 합니다. 하나는 충분한 근거를 주는 일이고, 다른 하나는 넣으면 안 되는 자료를 지키는 일입니다. 환자 식별 정보, 공개하면 안 되는 연구 데이터, IRB나 공동연구 계약상 외부 서비스에 올리면 안 되는 파일은 넣지 않아야 합니다. 1학년 학생에게는 IRB가 아직 멀게 느껴질 수 있지만, 원칙은 지금도 가깝습니다. 친구의 이름과 학번이 들어간 표, 수업에서 내부용으로 받은 자료, 연구실에서 “밖에 올리지 말라”고 들은 파일은 편하다는 이유로 외부 서비스에 넣지 않아야 합니다. AI 사용 능력은 편리함을 얻는 기술이면서 동시에 정보 보호와 연구 윤리를 지키는 기술입니다.
그림 설명(figure legend): 논문 그림이 무엇을 보여주는지 설명하는 글입니다.
문맥 창: 모델이 지금 답변을 만들 때 한 번에 읽을 수 있는 입력 공간입니다.
IRB: 사람 대상 연구가 윤리적으로 설계되었는지 심의하는 위원회입니다.
네 번째 원칙은 계산을 말이 아니라 실행으로 확인하는 것입니다. LLM은 설명을 잘하지만, 숫자 세기나 복잡한 문자열 처리나 통계 계산에서 실수할 수 있습니다. 유전자 리스트의 교집합, 표의 행 개수, 평균과 표준편차, p-value 계산, 다중검정 보정처럼 확인 가능한 일은 코드로 실행하게 해야 합니다. “계산해줘”라고만 묻기보다 “코드를 보여주고 실행 결과를 확인해줘”라고 요구하는 습관이 필요합니다. 실행 로그, 입력 파일, 출력 파일이 남아야 나중에 다시 볼 수 있습니다.
p-value: 관찰한 차이가 우연만으로도 나올 수 있는지 따져볼 때 쓰는 통계값입니다.
다중검정 보정: 많은 비교를 한꺼번에 할 때 우연한 발견이 늘어나는 문제를 줄이는 절차입니다.
실행 로그: 어떤 코드가 어떤 순서로 돌았고 어떤 결과가 나왔는지 남긴 기록입니다.
다섯 번째 원칙은 원본을 보존하는 것입니다. 에이전트에게 파일을 맡길 때는 원본 데이터를 수정하지 말라고 분명히 말해야 합니다. 새 파일은 별도 폴더에 만들게 하고, 전처리 단계마다 무엇을 했는지 기록하게 하고, 삭제나 덮어쓰기는 하지 못하게 해야 합니다. 연구 데이터는 한 번 망가지면 복구하기 어렵습니다. 특히 여러 단계의 분석이 이어질 때는 어떤 파일이 원본이고 어떤 파일이 가공본인지 분명히 남겨야 합니다.
여섯 번째 원칙은 발견과 확인을 나누는 것입니다. 데이터를 처음 볼 때는 탐색이 필요합니다. 여러 그림을 그려보고, 의외의 패턴을 찾고, 후보 유전자를 넓게 살펴볼 수 있습니다. 이것은 발견용 분석입니다. 그러나 발견용 분석에서 눈에 띈 결과를 바로 결론으로 쓰면 위험합니다. 확인용 분석은 미리 정한 비교, 미리 정한 기준, 가능하면 독립 데이터나 다른 실험으로 다시 보는 과정입니다. 에이전트가 수십 가지 분석을 빠르게 돌릴 수 있는 시대에는 이 구분이 더 중요해집니다. 많이 돌릴수록 우연히 그럴듯한 결과를 만날 가능성도 커지기 때문입니다.
이 문제는 카파시가 말한 의도 구현(manifesting)과도 이어집니다. 사람이 에이전트에게 의도를 표현하고, 에이전트가 여러 작업을 수행하는 시대가 오면, 의도 자체가 작업의 방향을 정합니다 (링크). 좋은 의도는 좋은 루프를 만들 수 있지만, 나쁜 의도도 빠르게 실행될 수 있습니다. “진짜 차이가 있는지 확인하라”는 지시와 “내가 기대한 유전자가 나오게 하라”는 지시는 전혀 다릅니다. 후자는 확인편향을 자동화합니다.
생물학 연구에서 이 위험은 작지 않습니다. 비교 대상을 바꾸고, 어떤 값을 제외할지 바꾸고, 그래프 모양을 바꾸다 보면 언젠가 원하는 그림이 나올 수 있습니다. 예전에도 이런 유혹은 있었습니다. 그러나 에이전트는 그 유혹을 훨씬 빠르고 세련되게 실행할 수 있습니다. 그래서 에이전트 시대의 연구자에게 필요한 것은 단순히 분석을 많이 돌리는 능력이 아닙니다. 무엇을 돌려도 되고 무엇은 돌리면 안 되는지 먼저 정하는 규율입니다.
일곱 번째 원칙은 출처 기록(provenance)을 남기는 것입니다. 출처 기록은 어떤 결과가 어디서 왔는지에 대한 기록입니다. 어떤 데이터 파일을 썼는지, 어떤 코드가 실행되었는지, 어떤 패키지 버전(package version)을 사용했는지, 어떤 프롬프트를 주었는지, 어떤 중간 결과를 보고 다음 단계로 넘어갔는지 남겨야 합니다. 연구실 노트가 실험의 기억이라면, 에이전트 작업 로그는 디지털 연구의 기억입니다. 나중에 결과가 이상해 보일 때, 이 기록이 있어야 되돌아갈 수 있습니다.
출처 기록(provenance): 결과가 어떤 자료와 절차에서 나왔는지 남기는 기록입니다.
패키지 버전(package version): 코드가 사용한 프로그램 묶음의 버전입니다. 버전이 달라지면 결과가 달라질 수 있습니다.
이 원칙은 연구실에 들어간 뒤에야 필요한 것이 아닙니다. 1학년 수업 과제에서도 원본 파일과 가공 파일을 나누어 두는 습관은 중요합니다. 처음 받은 표를 그대로 두고, 정리한 표는 새 이름으로 저장하고, 어떤 열을 지웠는지 짧게 적어두는 것만으로도 나중에 훨씬 덜 헤맵니다. AI를 사용하면 이런 구분은 더 필요해집니다. 에이전트가 파일을 열고 정리하고 새 표를 만들 때, 사람이 중간 과정을 놓치기 쉽기 때문입니다. “결과가 잘 나왔으니 됐다”라고 생각하는 순간, 그 결과가 어떤 선택의 연속에서 나왔는지 사라질 수 있습니다. 과학에서 결과만 남고 과정이 사라지면, 다른 사람이 확인할 수도 없고 자신도 다시 설명할 수 없습니다. 좋은 AI 사용은 편리한 자동화가 아니라, 되짚을 수 있는 자동화여야 합니다.
여덟 번째 원칙은 모델 평가를 겉점수만으로 보지 않는 것입니다. AI 모델은 평가 문제(benchmark)에서 높은 점수를 받을 수 있습니다. 그러나 의생명 연구의 실제 작업 흐름(workflow)은 시험 문제보다 훨씬 지저분합니다. 데이터 설명서가 불완전하고, 샘플 이름이 이상하고, 실험 조건이 애매하고, 논문 간 결론이 서로 다를 수 있습니다. 어떤 모델이 특정 평가 문제에서 잘했다고 해서, 여러분의 데이터와 질문에서도 잘한다는 뜻은 아닙니다. 점수표를 볼 때도 결국 물어야 할 것은 이 모델이 내 자료, 내 질문, 내 검증 조건에서 어디까지 버티는가입니다.
평가 문제(benchmark): 여러 모델의 성능을 비교하기 위해 정해 둔 시험 문제나 평가 기준입니다.
작업 흐름(workflow): 자료를 준비하고, 분석하고, 검토하고, 결과를 남기는 전체 흐름입니다.
예를 들어 어떤 바이오 AI 모델이 아주 많은 세포나 유전체 자료로 학습되었다고 해도, 그것만으로 충분하지 않습니다. 그 모델이 실제로 어떤 질문에 도움이 되는지, 새 자료에서도 비슷하게 작동하는지, 간단한 방법보다 정말 나은지 따로 물어야 합니다. 학생 수준에서는 이렇게 생각해도 좋습니다. AI 회사가 발표한 점수표만 보고 도구를 고르지 말고, 내가 읽는 논문 초록, 내가 받은 수업 표, 내가 작성해야 하는 발표문에서 작은 시험을 해보아야 합니다. “이 모델이 세상에서 제일 좋은가”보다 “내 과제의 이 단계에서 믿고 쓸 수 있는가”가 더 가까운 질문입니다. 최근 바이오 AI 분야에서는 큰 모델이 항상 좋은 결과를 내는 것은 아니라는 논의도 계속됩니다. 크기는 출발점일 뿐이고, 검증은 별개의 일입니다.
아홉 번째 원칙은 상관관계와 개입을 구분하는 것입니다. 어떤 유전자들이 함께 발현된다는 사실은 중요할 수 있지만, 그것만으로 하나가 다른 하나를 조절한다고 말할 수는 없습니다. 질병군에서 특정 경로가 높게 보인다고 해서, 그 경로가 질병의 원인이라고 바로 말할 수도 없습니다. 생명과학에서 치료와 기전으로 가려면 “함께 보인다”를 넘어 “바꾸면 무엇이 달라지는가”를 물어야 합니다. 이 질문이 개입 실험(perturbation)이고, 더 나아가 반사실적 사고(counterfactual thinking)의 출발점입니다. AI가 제안한 후보도 이 구분을 통과해야 합니다.
상관관계: 두 일이 함께 움직이는 것처럼 보이는 관계입니다.
개입 실험(perturbation): 시스템에 일부러 변화를 주어 반응을 보는 일입니다.
반사실적 사고(counterfactual thinking): "만약 이 조건만 바꾸었다면 결과가 달라졌을까"를 묻는 사고방식입니다.
열 번째 원칙은 자기 말로 다시 설명하는 것입니다. AI가 만든 설명을 읽고 고개를 끄덕였다고 해서 배운 것은 아닙니다. 모델이 만든 코드를 실행했다고 해서 분석을 이해한 것도 아닙니다. 친구에게 말로 설명할 수 있어야 합니다. “이 비교가 왜 필요한지”, “이 그림의 x축과 y축이 무엇인지”, “이 p-value가 무엇을 뜻하지 않는지”, “이 분석의 가장 큰 한계가 무엇인지”를 자신의 문장으로 말할 수 있어야 합니다. 설명하지 못하는 결과는 아직 자기 것이 아닙니다.
이 태도는 두려움과도 다르고 맹신과도 다릅니다. AI를 멀리하면 앞으로의 연구 환경을 놓칠 수 있습니다. 반대로 AI를 권위처럼 받아들이면 생명과학에서 가장 중요한 검증 절차를 잃을 수 있습니다. 의생명과학 학생에게 필요한 것은 그 사이의 길입니다. AI를 곁에 두되, 질문과 기준과 책임은 스스로 갖는 길입니다.
카파시는 좋은 tutor가 학생에게 지식으로 올라가는 경사로를 만들어준다고 말합니다 (링크). LLM은 그런 경사로의 일부가 될 수 있습니다. 어려운 논문을 처음 읽게 해주고, 복잡한 개념을 낮은 곳에서부터 다시 설명해주고, 코드 앞에서 포기하지 않게 도와줄 수 있습니다. 그러나 경사로를 올라가는 일은 여전히 학생의 일입니다. AI가 손을 잡아줄 수는 있지만, 어느 방향으로 가고 있는지 묻는 사람은 학생 자신이어야 합니다.
이런 원칙들은 처음에는 많아 보일 수 있습니다. 그러나 실제로는 하나의 태도로 모입니다. AI가 만든 결과를 연구 결과처럼 대하지 말고, 연구 과정의 초안으로 대하는 것입니다. 초안은 고칠 수 있고, 의심할 수 있고, 더 좋은 근거를 붙일 수 있습니다. 초안을 빨리 얻는 것은 큰 장점입니다. 다만 초안이 빨라졌다고 해서 검토가 짧아져서는 안 됩니다. 오히려 초안이 많아질수록 무엇을 버릴지 판단하는 시간이 중요해집니다.
학생이 이 태도를 연습하는 가장 좋은 방법은 작은 작업에서부터입니다. 논문 한 편을 읽을 때 AI에게 먼저 요약을 부탁하고, 그다음 원문을 보며 맞는지 표시해보십시오. 유전자 리스트 하나를 분석할 때 AI에게 코드를 만들게 하고, 그 코드가 어떤 열을 읽고 어떤 기준으로 필터링하는지 한 줄씩 설명해보십시오. 발표문을 만들 때 AI가 쓴 문장을 그대로 쓰지 말고, 자신이 이해한 만큼 다시 고쳐보십시오. 이 작은 연습들이 쌓이면, AI와 함께 일하면서도 자기 판단을 잃지 않게 됩니다.
의생명 연구에서 이 태도는 결국 사람을 향합니다. 데이터는 추상적인 숫자처럼 보이지만, 많은 경우 그 뒤에는 환자, 기증자, 실험동물, 세포주, 연구자의 시간이 있습니다. 환자 데이터를 다룰 때는 개인정보와 동의의 문제가 있고, 실험 데이터를 다룰 때는 재현성과 정직성의 문제가 있으며, 질병에 대해 설명할 때는 잘못된 정보가 누군가에게 실제 불안을 줄 수 있습니다. AI가 말을 쉽게 만들어줄수록, 그 말이 도달할 사람을 생각해야 합니다. 좋은 과학 문장은 빠른 문장이 아니라 책임 있는 문장입니다.
또 하나 기억할 것은 AI가 모든 학생을 같은 방식으로 돕지 않는다는 점입니다. 어떤 학생에게 AI는 낯선 영어 자료나 논문을 처음 열게 해주는 문이 될 수 있고, 어떤 학생에게는 코딩 공포를 낮춰주는 친구가 될 수 있습니다. 반대로 어떤 학생에게는 너무 쉽게 답을 주기 때문에 스스로 생각할 시간을 빼앗는 도구가 될 수도 있습니다. 그래서 AI 사용법에는 정답이 하나만 있지 않습니다. 중요한 것은 내가 어디서 도움을 받고, 어디서 스스로 멈추어 생각해야 하는지 알아가는 일입니다.
이 책의 마지막 사용 원칙은 그래서 간단합니다. AI에게 맡기되, 믿기 전에 확인하십시오. 빠르게 만들되, 천천히 읽으십시오. 많은 답을 얻되, 자기 질문을 잃지 마십시오. 의생명과학에서 AI는 강력한 도구가 될 것입니다. 그러나 도구가 강해질수록, 그것을 쓰는 사람의 기준도 더 단단해야 합니다.
이 기준은 하루아침에 생기지 않습니다. 처음에는 모델이 써준 답을 읽고 어디가 틀렸는지 잘 보이지 않을 수 있습니다. 그것은 당연합니다. 그래서 작은 단위에서 연습해야 합니다. 한 문단을 읽고 근거를 찾고, 한 줄의 코드를 읽고 무슨 일을 하는지 설명하고, 작은 표 하나를 보고 어떤 계산이 필요한지 말해보는 식입니다. 이런 훈련은 느려 보이지만, 나중에 큰 분석과 복잡한 논문을 다룰 때 학생을 지켜줍니다. AI가 만들어준 결과를 검토하는 눈은 결국 기초 개념, 데이터를 읽는 연습, 글 읽기 습관에서 나옵니다. 그러므로 AI를 잘 쓰고 싶다면 AI만 배워서는 안 됩니다. 생물학도 배워야 하고, 통계도 배워야 하며, 글도 읽어야 합니다. 도구가 강해질수록 기초가 덜 필요한 것이 아니라, 기초가 다른 방식으로 더 중요해집니다.
마지막으로, AI와 함께 공부하는 일은 혼자만의 기술이 아닙니다. 수업, 연구실, 회사, 기관마다 함께 기준을 만들어야 합니다. 어떤 자료를 AI에 넣어도 되는지, 어떤 과제와 업무에서 AI 사용을 허용할 것인지, AI가 만든 문장을 어떻게 표시할 것인지, 코드와 결과를 어떻게 검토할 것인지 함께 이야기해야 합니다. 학생이나 실무자가 몰래 쓰고, 교수자나 책임자가 막연히 금지하는 방식으로는 좋은 문화를 만들기 어렵습니다. AI는 이미 공부와 일의 환경 안으로 들어왔습니다. 그렇다면 필요한 것은 숨기는 문화가 아니라, 책임 있게 드러내고 점검하는 문화입니다. 이 책이 바라는 것도 그 방향입니다. 학생이 AI를 두려워하지 않고, 동시에 가볍게 여기지도 않으며, 자기 질문과 근거와 책임을 가지고 사용할 수 있기를 바랍니다. 그렇게 사용할 때 LLM은 지름길이 아니라 더 넓은 공부와 일의 길이 됩니다.
앞으로 여러분이 연구자가 되든, 바이오 기업이나 병원, 공공기관, 교육·콘텐츠 현장으로 가든, 어느 직종에서나 AI는 거의 늘 곁에 있을 것입니다. 논문을 읽고, 데이터를 다루고, 발표문을 만들고, 동료에게 설명하고, 새로운 자료를 검토하는 일은 직함이 달라도 계속 남습니다. 어떤 날에는 AI가 막힌 코드를 풀어주고, 어떤 날에는 어려운 문장을 낮은 곳으로 내려주고, 어떤 날에는 여러분이 놓친 반례를 보여줄 것입니다. 그러나 AI가 곁에 있다는 사실이 여러분의 고유한 시선을 대신하지는 못합니다. 어떤 문제를 오래 붙잡고 싶은지, 어떤 생명현상이 이상하게 느껴지는지, 어떤 데이터가 마음에 걸리는지, 어떤 설명이 충분하지 않은지 알아차리는 일은 여러분 안에서 자라야 합니다. 그래야 AI가 만든 수많은 답 중에서 중요한 것을 고를 수 있습니다. 의생명과학은 결국 살아 있는 세계를 이해하려는 학문입니다. 그 세계는 텍스트보다 복잡하고, 모델보다 느리고, 때로는 우리가 만든 설명을 거부합니다. 그래서 AI와 함께하더라도 겸손해야 합니다. 좋은 도구를 들었으니 더 빨리 단정하는 것이 아니라, 더 깊이 확인할 수 있어야 합니다. 그것이 이 책이 마지막에 남기고 싶은 태도입니다.
이 원칙들은 한 번 읽고 끝나는 규칙표가 아닙니다. 수업에서 작은 표를 다룰 때, 논문 초록을 처음 읽을 때, 발표문을 만들 때, 일터에서 첫 데이터 파일을 받을 때마다 다시 돌아와야 하는 기준입니다. AI는 계속 바뀔 것이고, 오늘 쓰는 모델 이름도 몇 년 뒤에는 낡아 있을 수 있습니다. 이 책의 본문에서 언급한 모델 이름들도 2025-2026년 무렵의 사례로 읽으면 충분합니다. 하지만 원문으로 돌아가기, 계산을 실행으로 확인하기, 원본을 지키기, 기록을 남기기, 자기 말로 설명하기 같은 습관은 쉽게 낡지 않습니다. 도구가 바뀌어도 이 습관은 학생을 지켜줍니다.
그래서 이 장의 마지막 말은 금지가 아니라 초대에 가깝습니다. AI를 쓰는 일은 과제를 더 빨리 끝내는 기술을 익히는 데서 멈추지 않습니다. 지금 우리 사회가 마주한 건강, 돌봄, 환경, 격차, 교육의 문제를 더 정확히 읽고 더 책임 있게 풀어보라는 초대이기도 합니다. “실천하는 지성, 생각하는 리더, 사회에 힘이 되는 대학”이라는 말은 이런 자리에서 구체적인 의미를 얻습니다. 개척하는 지성은 낯선 도구를 먼저 써보는 호기심에 머물지 않습니다. 그 도구를 누구를 위해, 어떤 근거 위에서, 어떤 책임으로 쓸 것인지 묻는 태도입니다. 그것이 고려대학교가 학생들에게 기대하는 힘이고, 앞으로의 교육이 향해야 할 방향입니다. AI를 쓰십시오. 다만 더 정직하게 읽고, 더 분명하게 묻고, 더 책임 있게 남기십시오. 그리고 그 힘을 우리 사회의 어려운 문제를 푸는 데 쓰십시오.