매일 뉴스 읽기 힘들고 버거우시죠? 정보의 홍수 속에서 나에게, 우리 자녀에게 꼭 필요한 진로/ 진학 관련 뉴스만 엄선했습니다.
챗 GPT가 그야말로 연일 화제입니다. 와튼스쿨의 시험을 통과했다는 뉴스가 나온지 한달이 채 안된 것 같은데, 이제는 박사 논문을 쓰고 코딩까지 대신해줄 수 있다는 뉴스가 나옵니다. 단순한 로직과 사칙연산으로 먹고 살던 직업들은 AI 기술이 어디까지 비집고 들어올지 좌불안석입니다. 이제 인간들은 창의력이 요구되는 일에 몰두해야한다는 주장이 힘을 싣고 있고 이러한 주장은 대학 전공 선택, 더 나아가 고등학교 시절 이과, 문과 선택에도 영향을 미친다고 합니다.
챗GPT가 인간의 삶, 직업, 그리고 학교에 미치는 영향을 다양한 각도로 들여다볼게요.
1. “챗GPT 때문에 문과 망하는 거 아닌가요?”…'AI 대부' 의견은?[챗GPT의 모든 것] (2023.02.11)
“챗GPT 때문에 문과는 완전히 망하는 거 아닌가요.”
알파고와 아마존고에 이어 이번엔 ‘챗GPT’다. 인공지능(AI) 기술이 고도화되고 다양한 산업에 접목하며 상용화될 때마다 인간의 능력과 역할에 대한 두려움이 함께 고개를 든다. 알파고는 바둑으로 사람을 이기면서 AI의 존재감을 보여줬고 아마존고는 기계가 인간의 단순 노동을 대체한다는 인식을 심어 줬다면 챗GPT에 대한 공포감은 더 짙다.
미국 대학 로스쿨 입학 시험, MBA 기말 시험, 의사 면허 시험까지 합격했다. 개발자처럼 컴퓨터 코드를 짜고 시·논문·기사까지 척척 써낸다. 그리고 이 같은 기술이 검색 서비스로 나와 이미 1억 명 넘게 경험하면서 일상 깊이 스며들었다.
한계를 지적하는 전문가들도 많다. 언어 데이터를 기반으로 하기 때문에 물리학적 직관이나 학습하지 않은 데이터에 대한 정보는 틀릴 가능성이 높다. 표절로 인한 저작권 문제나 도덕적 윤리에 대한 비판도 여전하다.
챗GPT가 전 세계에 신드롬 수준의 파장을 불러일으키면서, 다른 빅테크 기업들도 발빠르게 생성AI(데이터를 학습해 새 콘텐츠를 만드는 AI) 챗봇을 내놨다. 하지만 기존에 존재하던 콘텐츠와 데이터를 가져다 학습한 AI가 내놓은 결과물을 저작물로 인정할 것이냐를 두고서도 논란이 빚어지고 있다.
세계 교육계에도 비상이 걸렸다. 챗GPT의 글쓰기 능력이 사람과 구분하기 어려울 정도여서 부정 행위에 악용될 우려가 컸기 때문이다. 짧은 시간에 기존의 자료를 조합해 긴 글을 작성하거나 문제풀이를 하는 챗GPT의 등장에 따라 학생이 스스로 과제를 해결하지 않고 챗GPT에 맡겨 결과물을 그대로 복제할 수 있다는 우려도 나온다.
세계적 언어학자인 노엄 촘스키 매사추세츠공과대(MIT) 명예교수도 이를 지적했다. 그는 최근 교육 관련 내용을 다루는 유튜브 ‘에듀키친(Edukitchen)’에 출연해 챗GPT에 대해 “인문학과 사회과학 등 글쓰기에 기반한 학문에서 ‘표절’은 매우 오랫동안 중요한 이슈였다”면서 “AI로 인해 표절하기가 더 쉬워졌다”고 우려를 표했다. 그는 궁극적으로 챗GPT가 “언어·인지·인간의 이해와 관련해서는 가치가 없다”는 생각이다.
미국·프랑스·호주의 일부 학교에서는 챗GPT 활용을 제한하기 시작했다. 챗GPT는 인간의 영역인 창의성과 통찰력마저 넘볼 수 있을까. 구글이 챗GPT에 대한 위기감으로 ‘코드 레드’를 선언한 것처럼 인간 역시 본연의 영역에 경고음을 울려야 할까.
유치원생도 답할 수 있는 질문에는 엉뚱한 소리했다
얀 르쿤 뉴욕대 교수는 챗GPT같은 대형언어모델이 '인간의 지능 수준으로 가는 고속도로에서 갓길로 빠져나간 것과 같다'고 비판했다./얀 르쿤 교수 페이스북
“챗GPT? 그다지 똑똑하지 않아”
챗GPT 광풍이 분 이후 한 과학자가 이를 공개 저격했다. ‘AI 대부’, ‘AI 4대 천왕’으로 불리는 얀 르쿤 뉴욕대 교수다. 르쿤 교수는 “챗GPT 같은 대규모 언어 모델(LLM)은 언어를 피상적으로 학습해 질문에 그럴싸한 답변을 도출할 수는 있지만 답변의 진위 여부를 판독할 수 없고 물리적 직관이 없다”고 주장했다.
컴퓨팅계의 최고 권위자에게 주는 ‘튜링상’ 수상자인 르쿤 교수가 예로 든 문장을 보자.
“두 손을 이용해 종이를 수평으로 잡고 있다가 한쪽 손을 놓으면 무슨 일이 벌어질까.”
로스쿨까지 합격한 챗GPT가 답했다.
“손을 놓은 방향으로 종이가 기울거나 회전할 수 있습니다. 종이가 더 이상 양쪽으로 균등하게 고정되지 않고 무게 분포가 불균일하기 때문입니다.”
언뜻 보면 훌륭한 답변이다. 하지만 자세히 들여다보면 물리학적으로 정반대의 답을 내놓았다. 종이를 두 손으로 잡고 있다가 한쪽 손을 놓으면 손을 놓은 방향이 아니라 잡고 있던 방향으로 종이가 기운다.
챗GPT가 이처럼 간단한 질문에 답하지 못하는 이유는 작동 원리가 문자 데이터에 기반한 대규모 언어 모델이기 때문이다. 챗GPT가 기반하고 있는 언어 모델은 ‘GPT-3.5’다. GPT-3는 명령어, 즉 프롬프트(prompt)에 기초해 사람과 유사한 응답을 생성하는 자동 회귀 언어 모델이다. 쉽게 말하면 다양한 단어가 주어지면 이를 연결해 어떤 문장을 만들어야 하는지 데이터에 기반해 ‘확률적으로’ 가장 적합한 문장을 내놓는다.
이 때문에 인간이 쉽게 답할 수 있는 질문에 틀린 답을 내놓거나 비언어적·물리학적 직관이 필요한 지식에 대해서는 엉뚱한 대답을 할 가능성이 있다. 르쿤 교수는 이를 두고 “인간 지능 수준의 AI로 가는 고속도로에서 (챗GPT 같은) 대형 언어 모델은 갓길로 빠져나온 것과 같다”며 기술의 비혁신성을 강조했다. 르쿤 교수가 대형 언어 모델 (LLM)을 비판한 것은 처음이 아니다. 그는 2020년 한 포럼에서도 “GPT는 그저 높이 나는 비행기를 만들려고 하는 것뿐, 이 기술로는 절대 달에 갈 수 없다”고 말했다.
챗GPT, 단어 조합한 확률 모델
챗GPT가 학습한 샘플 데이터, 챗GPT에 설정된 답변의 우선 순위, 답변에 대한 교육과 평가에 따라 답변의 정확성이나 진위 여부가 갈리기 때문이다.
최종현 연세대 인공지능학과 교수 역시 “챗GPT는 다른 GPT 모델에 비해 컨텍스트 인코딩 능력이 좋아서 대화의 답변을 보면 AI가 창의력을 갖추거나 통찰력이 있다고 착각할 만하다"며 "하지만 이를 진정한 대화 내용의 이해라고 해석하기 보다는 긴 단어 시퀀스를 조건으로 확률이 가장 높은 다음 단어를 예측하는 기술로 이해해야 한다”고 말했다.
이어 “챗GPT가 학습한 원 데이터에는 통찰력이 있을 수 있고 대화형 언어 모델은 데이터의 시퀀스를 학습하는 것이기 때문에, 그 통찰력을 제공할 수 있는 ‘진짜 전문가’들이 더욱 각광을 받을 가능성이 매우 높다”이라고 말했다.
코딩 역시 단순한 샘플 코드를 제공해 주는 형태라 개발자를 대체하기에도 아직 멀었다는 의견이 지배적이다. 개발자 질의응답 사이트 ‘스택 오버플로’는 이용자가 챗GPT를 통해 만든 답안을 업로드하는 것을 일시적으로 금지하는 결정을 내렸다.
운영진은 “챗GPT가 내놓는 답변이 오답률이 높음에도 일반적으로 타당한 것처럼 보이고 답변을 만들어 내기가 너무 쉽다”고 지적했다.
하지만 현직 개발자들 사이에서는 구글 검색 대신 코드 검색 용도로 점차 많이 쓰일 것 같다는 기대감이 나오기도 한다. 챗GPT는 코드에서 에러가 발생할 수 있는 지점을 알려주는 ‘코드리뷰’도 가능하기 때문이다. 한국 대형 포털 사이트의 한 개발자는 “구글을 통한 코드 검색은 단순 키워드 검색을 하고 목록에서 직접 해결책을 찾아야 한다면 챗GPT는 대화의 문맥을 이해하고 해결책을 같이 찾아주는 형식이라 개발자들이 많은 기대를 하고 있다”고 말했다.
오류가 많고 데이터가 충분하지 않으며 저작권 등 윤리적인 문제가 있을 수 있다는 문제점은 챗GPT를 개발한 오픈AI 역시 잘 알고 있다. 뉴욕타임스에 따르면 오픈AI는 지난해 말이 아니라 올해 상반기에 챗 GPT를 공개할 계획이었다. 더 고도화된 데이터베이스를 적용하기 위해서다.
하지만 오픈AI 경영진은 다른 빅테크 기업이 비슷한 성능을 가진 챗봇을 내놓을 것을 우려해 2021년까지의 데이터만 학습한 챗GPT를 공개했다. 오픈AI 경영진이 챗GPT 출시를 결정하기까지는 고작 13일이 걸렸다고 한다.
미라 무라티 오픈AI 최고기술책임자(CTO)는 2월 5일 공개된 미국 시사 주간지 ‘타임’과의 인터뷰에서 “AI는 남용될 수 있고 나쁜 이들이 사용할 수도 있다”며 “이 기술을 전 세계적으로 어떻게 관리할 것이냐는 문제가 있다”고 인정했다. 그는 구체적으로 “AI 기술을 인간의 가치에 맞춰 조정하면서 사용하도록 어떻게 관리할 것이냐”가 관건이라고 덧붙였다.
문과는 망하는 것 아니냐는 질문으로 돌아가 보자. 전문가들은 AI 기술이 고도화될수록 인간 AI의 공존만이 해답이라고 말한다.
최 교수는 “세계적인 AI 선구자나 전문가들이 AI의 발전 속도를 예측한 내용도 틀리는 경우가 매우 많다”며 “교통과 통신, 기술이 발달해 오면서 생산성이 크게 향상되는 역사가 반복돼 왔지만 인간은 늘 변화된 사회에 적응하는 법을 터득해 왔다. AI가 발달할수록 비 인간적이고 반복적인 일을 기계에게 맡길 수 있게 된다면 더 많은 사람들이 인간적인 삶을 살 수도 있다”고 말했다.
미국에서는 대학 수업에 챗GPT 사용을 ‘의무화’한 사례도 등장했다. 미국 공영 라디오 NPR에 따르면 명문 MBA인 펜실베이니아대 와튼스쿨의 이선 몰릭 교수는 올해 강의에 ‘챗GPT’를 허용한 것은 물론 사용을 의무화했다.
NPR은 몰릭 교수가 이를 통해 인간과 기계 모두에 '우리는 함께 잘 지낼 수 없나'라는 메시지를 던지고 있다고 전했다. 몰릭 교수는 "우리는 전자계산기가 있는 세계에서 수학을 가르쳤다"며 "이제 교육자들에게 주어진 과제는 학생들에게 이 세상이 다시 어떻게 변했고 그 변화에 어떻게 적응할 수 있는지 가르치는 것"이라고 말했다.
출처: 한국경제
https://n.news.naver.com/article/050/0000064023?cds=news_my
2. “챗GPT에 과제 맡겼더니 A”… 개학 앞둔 대학 비상 (2023.02.10)
“계절학기 보고서를 챗GPT로 (작성해서) 냈다. 결과는 A+”
지난 31일 서울대 온라인 커뮤니티 에브리타임에 올라온 글이다. 여기엔 “과연 표절인가? 그렇다면 ‘누구’의 글을 표절한 것인가?”라는 답글이 달렸다.
서강대 온라인 커뮤니티에서도 지난달 7일 “컴퓨터 과제를 하다가 ‘이거 왜 안 되지?’ 궁금할 때 챗GPT에 물어보면 답 잘해준다. 나도 챗GPT가 말해준 대로 코드 수정을 했더니 깔끔해져서 좋았다”는 글이 올라왔다. 학생들은 “진심 놀랍더라” “인간 시대의 끝이 도래했다”고 댓글로 호응했다.
고려대 4학년 A씨는 “학교 커뮤니티 ‘고파스’에 ‘챗GPT 사용법 관련 정보를 공유하는 단톡방’에 대한 홍보 글이 올라왔는데, 들어가려고 했더니 벌써 1500명 정원이 꽉 차 있어 아쉬웠다”고 했다.
출시 두 달여 만에 전 세계적으로 반향을 끌고 있는 AI(인공지능) 챗봇 ‘챗GPT’. 미국에서 챗GPT를 활용해 숙제나 시험을 해결하는 학생들이 문제가 되고 있는 가운데 우리나라 대학가에도 ‘챗GPT 대필’ 문제가 뜨거운 감자로 떠오르고 있다. 대학생 온라인 커뮤니티에선 사용 경험을 공유하는 글들이 줄줄이 올라오고, 한 국제학교에선 시험에 챗GPT를 활용하다 적발돼 ‘0점’을 받은 사례도 나왔다. 문제는 학생들은 이렇게 발 빠르게 움직이고 있지만 대부분 대학들은 대책이 없는 상황이라는 점이다. 이 때문에 다음 달 신학기 개강을 코앞에 두고 교육계에 비상이 걸렸다는 지적이 나온다.
9일 본지가 건국대·경희대·고려대·서울대·성균관대·시립대·연세대·중앙대·한국외국어대·한양대 등 수도권 대학 10곳에 문의한 결과, 10곳 모두 ‘AI 대필’ 등 챗GPT 관련 생길 수 있는 문제들에 대한 대학 차원 대책을 마련하지 못했거나 아예 검토조차 하지 않는 것으로 파악됐다.
연세대 관계자는 “챗GPT 로 생길 수 있는 문제점은 알고 있지만, 아직 대학 차원에서 검토 중인 대응책은 없다”고 말했다. 한국외대는 “당장 마련된 대책은 없지만, ‘동전의 양면’을 가진 이슈인 만큼 개강 전에 충분히 논의하겠다”고 밝혔다. 중앙대 교무처 관계자는 “학생들에게 과제를 내고 채점하는 건 모두 교수이기 때문에 챗GPT 관련 대처도 교수 자율”이라며 “현재로는 관련된 별도 가이드라인이나 논의 중인 내용이 없다”고 했다.
본지가 서울대의 전공·교양 수업 중 보고서 평가 비율이 40%가 넘는 과목 30개 강의 계획서를 확인해 본 결과, 표절 금지 경고는 있지만 챗GPT 등 인공지능 프로그램을 쓰면 안 된다는 지침은 아직 없었다.
실제 챗GPT가 써낸 답안은 벌써 미국 대학교 시험을 통과하는 수준에 이르렀다. 최근 미 펜실베이니아대 와튼스쿨 한 교수가 MBA(경영대학원) 과정 필수 과목 ‘운영관리’ 기말 시험을 GPT에게 치르게 했더니 B 또는 B- 학점을 받을 수준 결과를 내놓았다. 미네소타대 로스쿨 교수들이 챗GPT에게 기말 시험 4과목을 응시하게 했더니 평균 C+ 학점을 받았다. 낮은 성적이지만 통과는 한 것이다. GPT는 대체로 객관식보다는 에세이를 더 잘 썼다고 한다. 이런 문제 때문에 일부 대학들은 챗GPT가 쓴 글인지를 식별하는 ‘제로GPT’ 프로그램 등을 활용해 챗GPT를 통한 대필이나 표절을 가려내려 하고 있다.
우리도 개별 교수들이 챗GPT 관련 지침을 마련한 경우는 있다. 권석준 성균관대 화학공학과 교수는 다음 1학기 강의 계획서에 “공부하는 과정에서 챗GPT 등 AI를 활용할 수는 있지만, AI를 활용해 생산한 답안을 자신이 쓴 것처럼 제출하면 부정행위로 간주하겠다”고 공지했다.
무조건 금지하는 것보다 현명하게 활용할 수 있는 방법을 가르쳐야 한다는 의견도 나온다. 김정호 KAIST 전기·전자공학과 교수는 다음 학기 수업에서 학생들에게 코딩 과제를 할 때 챗GPT를 활용할 수 있도록 지침을 줄 계획이다. 김 교수는 “어차피 기술 발전 흐름을 거스르긴 어렵다”면서 “무리하게 막기보단 이를 잘 활용해 새로운 창의성을 개발해가는 쪽으로 발상을 전환하는 게 낫다”고 말했다.
박남기 광주교대 교육학과 교수는 “이제 수업은 미리 촬영한 동영상으로 대체하고, 수업 시간엔 학생들이 직접 과제를 하거나 평가를 보도록 하는 ‘플립러닝(flipped-learning)’ 등 새로운 교수법과 평가 방법을 고민해야 할 때”라면서 “챗GPT는 AI가 어떤 자료들을 참고해 작성했는지는 모르기 때문에, 모든 과제에 출처를 명확하게 작성하도록 저작권 교육을 강화하는 것도 방법”이라고 말했다.
출처: 조선일보
https://www.chosun.com/national/education/2023/02/10/2PMQM6YIMZAAZKQI7ZJNM26IUM/
3. 이주호 "AI, 지식주입식 교육에 타격…답 아닌 질문법 교육해야" (2023-02-16)
이주호 사회부총리 겸 교육부 장관이 한국 같은 암기 위주의 교육체계는 인공지능(AI) 기술 발전에 큰 타격을 받는다며 "학생들에게 답이 아닌 질문을 하는 방법을 교육해야 한다"고 강조했다.
미국 일부 대학에서 챗GPT 사용을 금지했다는 여당 의원의 언급에는 '미봉책'이라는 해석이 나온다며 부정적인 입장을 밝혔다.
국민의힘 이태규 의원은 "교육에 어떤 기준을 갖고 사용하고 어떤 규제를 할 것인지 입장정리가 필요하다"며 "지금도 공교육에 대한 불신 때문에 사교육이 번창하는데 문제를 풀 때 선생님의 설명이나 해법이 챗GPT보다 못할 경우 아이들이 학교나 교사를 어떻게 생각하겠느냐"고 말했다.
이 부총리는 챗GPT의 출현에 대해 "'올 것이 왔다'고 생각했다"며 "가장 큰 도전은 더 이상 학생들에게 답을 요구하는 교육으로는 챗GPT가 이끄는 세상을 준비 못 시킨다는 것"이라고 말했다.
그는 "AI 기술에 가장 타격을 많이 입는 교육체계가 한국처럼 지식 전달에 집중하고 암기력만 요구하는 학습체계"라며 "아이들이 답하는 것이 아니고 질문하도록 교육해야 이 문제를 해소할 수 있다"고 말했다.
미국에서는 챗GPT를 쓰지 못하도록 하는 대학이 있다는 지적에는 부정적인 입장을 내비쳤다.
이 부총리는 "일부 대학에서 금지하다가, 금지하는 것이 미봉책에 불과하다는 해석이 이어지는 것으로 알고 있다"며 "교육에 대한 근본적인 성찰이 필요하고, 이것을 교육개혁의 큰 자극으로 삼아야 한다"고 답했다.
유기홍 교육위원장(더불어민주당)은 "각계 전문가와 교육학술정보원(KERIS)까지 포함해 (챗GPT) 활용법, 윤리, 부정행위를 할 수 없게끔 만드는 장치 등에 대한 종합적인 대책을 조속하게 마련해달라"고 촉구했다.
서유미 한국교육학술정보원장은 "내부 토론과 정책연구를 추진하고 있다"며 "교사나 전문가들이 모여 사회적 논의를 통해 안전하고 윤리적으로 (챗GPT를) 활용할 방안을 모색해야 한다"고 말했다.
출처: 연합뉴스
https://www.yna.co.kr/view/AKR20230216131100530?input=1195m
#직진톡 #성향검사 #멘토링 #입시컨설팅 #진로진학 #진로상담 #진학상담 #성적향상컨설팅 #자기주도학습컨설팅 #학습법컨설팅 #학습컨설팅 #공부법컨설팅 #MBTI #멘토링플랫폼 #멘토링사이트 #진로체험 #진로탐험 #진로탐색 #챗GPT대학교육 #챗GPT문과몰락 #챗GPT문과침공 #챗GPT표절 #챗GPT금지
매일 뉴스 읽기 힘들고 버거우시죠? 정보의 홍수 속에서 나에게, 우리 자녀에게 꼭 필요한 진로/ 진학 관련 뉴스만 엄선했습니다.
챗 GPT가 그야말로 연일 화제입니다. 와튼스쿨의 시험을 통과했다는 뉴스가 나온지 한달이 채 안된 것 같은데, 이제는 박사 논문을 쓰고 코딩까지 대신해줄 수 있다는 뉴스가 나옵니다. 단순한 로직과 사칙연산으로 먹고 살던 직업들은 AI 기술이 어디까지 비집고 들어올지 좌불안석입니다. 이제 인간들은 창의력이 요구되는 일에 몰두해야한다는 주장이 힘을 싣고 있고 이러한 주장은 대학 전공 선택, 더 나아가 고등학교 시절 이과, 문과 선택에도 영향을 미친다고 합니다.
챗GPT가 인간의 삶, 직업, 그리고 학교에 미치는 영향을 다양한 각도로 들여다볼게요.
1. “챗GPT 때문에 문과 망하는 거 아닌가요?”…'AI 대부' 의견은?[챗GPT의 모든 것] (2023.02.11)
“챗GPT 때문에 문과는 완전히 망하는 거 아닌가요.”
알파고와 아마존고에 이어 이번엔 ‘챗GPT’다. 인공지능(AI) 기술이 고도화되고 다양한 산업에 접목하며 상용화될 때마다 인간의 능력과 역할에 대한 두려움이 함께 고개를 든다. 알파고는 바둑으로 사람을 이기면서 AI의 존재감을 보여줬고 아마존고는 기계가 인간의 단순 노동을 대체한다는 인식을 심어 줬다면 챗GPT에 대한 공포감은 더 짙다.
미국 대학 로스쿨 입학 시험, MBA 기말 시험, 의사 면허 시험까지 합격했다. 개발자처럼 컴퓨터 코드를 짜고 시·논문·기사까지 척척 써낸다. 그리고 이 같은 기술이 검색 서비스로 나와 이미 1억 명 넘게 경험하면서 일상 깊이 스며들었다.
한계를 지적하는 전문가들도 많다. 언어 데이터를 기반으로 하기 때문에 물리학적 직관이나 학습하지 않은 데이터에 대한 정보는 틀릴 가능성이 높다. 표절로 인한 저작권 문제나 도덕적 윤리에 대한 비판도 여전하다.
챗GPT가 전 세계에 신드롬 수준의 파장을 불러일으키면서, 다른 빅테크 기업들도 발빠르게 생성AI(데이터를 학습해 새 콘텐츠를 만드는 AI) 챗봇을 내놨다. 하지만 기존에 존재하던 콘텐츠와 데이터를 가져다 학습한 AI가 내놓은 결과물을 저작물로 인정할 것이냐를 두고서도 논란이 빚어지고 있다.
세계 교육계에도 비상이 걸렸다. 챗GPT의 글쓰기 능력이 사람과 구분하기 어려울 정도여서 부정 행위에 악용될 우려가 컸기 때문이다. 짧은 시간에 기존의 자료를 조합해 긴 글을 작성하거나 문제풀이를 하는 챗GPT의 등장에 따라 학생이 스스로 과제를 해결하지 않고 챗GPT에 맡겨 결과물을 그대로 복제할 수 있다는 우려도 나온다.
세계적 언어학자인 노엄 촘스키 매사추세츠공과대(MIT) 명예교수도 이를 지적했다. 그는 최근 교육 관련 내용을 다루는 유튜브 ‘에듀키친(Edukitchen)’에 출연해 챗GPT에 대해 “인문학과 사회과학 등 글쓰기에 기반한 학문에서 ‘표절’은 매우 오랫동안 중요한 이슈였다”면서 “AI로 인해 표절하기가 더 쉬워졌다”고 우려를 표했다. 그는 궁극적으로 챗GPT가 “언어·인지·인간의 이해와 관련해서는 가치가 없다”는 생각이다.
미국·프랑스·호주의 일부 학교에서는 챗GPT 활용을 제한하기 시작했다. 챗GPT는 인간의 영역인 창의성과 통찰력마저 넘볼 수 있을까. 구글이 챗GPT에 대한 위기감으로 ‘코드 레드’를 선언한 것처럼 인간 역시 본연의 영역에 경고음을 울려야 할까.
유치원생도 답할 수 있는 질문에는 엉뚱한 소리했다
얀 르쿤 뉴욕대 교수는 챗GPT같은 대형언어모델이 '인간의 지능 수준으로 가는 고속도로에서 갓길로 빠져나간 것과 같다'고 비판했다./얀 르쿤 교수 페이스북
“챗GPT? 그다지 똑똑하지 않아”
챗GPT 광풍이 분 이후 한 과학자가 이를 공개 저격했다. ‘AI 대부’, ‘AI 4대 천왕’으로 불리는 얀 르쿤 뉴욕대 교수다. 르쿤 교수는 “챗GPT 같은 대규모 언어 모델(LLM)은 언어를 피상적으로 학습해 질문에 그럴싸한 답변을 도출할 수는 있지만 답변의 진위 여부를 판독할 수 없고 물리적 직관이 없다”고 주장했다.
컴퓨팅계의 최고 권위자에게 주는 ‘튜링상’ 수상자인 르쿤 교수가 예로 든 문장을 보자.
“두 손을 이용해 종이를 수평으로 잡고 있다가 한쪽 손을 놓으면 무슨 일이 벌어질까.”
로스쿨까지 합격한 챗GPT가 답했다.
“손을 놓은 방향으로 종이가 기울거나 회전할 수 있습니다. 종이가 더 이상 양쪽으로 균등하게 고정되지 않고 무게 분포가 불균일하기 때문입니다.”
언뜻 보면 훌륭한 답변이다. 하지만 자세히 들여다보면 물리학적으로 정반대의 답을 내놓았다. 종이를 두 손으로 잡고 있다가 한쪽 손을 놓으면 손을 놓은 방향이 아니라 잡고 있던 방향으로 종이가 기운다.
챗GPT가 이처럼 간단한 질문에 답하지 못하는 이유는 작동 원리가 문자 데이터에 기반한 대규모 언어 모델이기 때문이다. 챗GPT가 기반하고 있는 언어 모델은 ‘GPT-3.5’다. GPT-3는 명령어, 즉 프롬프트(prompt)에 기초해 사람과 유사한 응답을 생성하는 자동 회귀 언어 모델이다. 쉽게 말하면 다양한 단어가 주어지면 이를 연결해 어떤 문장을 만들어야 하는지 데이터에 기반해 ‘확률적으로’ 가장 적합한 문장을 내놓는다.
이 때문에 인간이 쉽게 답할 수 있는 질문에 틀린 답을 내놓거나 비언어적·물리학적 직관이 필요한 지식에 대해서는 엉뚱한 대답을 할 가능성이 있다. 르쿤 교수는 이를 두고 “인간 지능 수준의 AI로 가는 고속도로에서 (챗GPT 같은) 대형 언어 모델은 갓길로 빠져나온 것과 같다”며 기술의 비혁신성을 강조했다. 르쿤 교수가 대형 언어 모델 (LLM)을 비판한 것은 처음이 아니다. 그는 2020년 한 포럼에서도 “GPT는 그저 높이 나는 비행기를 만들려고 하는 것뿐, 이 기술로는 절대 달에 갈 수 없다”고 말했다.
챗GPT, 단어 조합한 확률 모델
챗GPT가 학습한 샘플 데이터, 챗GPT에 설정된 답변의 우선 순위, 답변에 대한 교육과 평가에 따라 답변의 정확성이나 진위 여부가 갈리기 때문이다.
최종현 연세대 인공지능학과 교수 역시 “챗GPT는 다른 GPT 모델에 비해 컨텍스트 인코딩 능력이 좋아서 대화의 답변을 보면 AI가 창의력을 갖추거나 통찰력이 있다고 착각할 만하다"며 "하지만 이를 진정한 대화 내용의 이해라고 해석하기 보다는 긴 단어 시퀀스를 조건으로 확률이 가장 높은 다음 단어를 예측하는 기술로 이해해야 한다”고 말했다.
이어 “챗GPT가 학습한 원 데이터에는 통찰력이 있을 수 있고 대화형 언어 모델은 데이터의 시퀀스를 학습하는 것이기 때문에, 그 통찰력을 제공할 수 있는 ‘진짜 전문가’들이 더욱 각광을 받을 가능성이 매우 높다”이라고 말했다.
코딩 역시 단순한 샘플 코드를 제공해 주는 형태라 개발자를 대체하기에도 아직 멀었다는 의견이 지배적이다. 개발자 질의응답 사이트 ‘스택 오버플로’는 이용자가 챗GPT를 통해 만든 답안을 업로드하는 것을 일시적으로 금지하는 결정을 내렸다.
운영진은 “챗GPT가 내놓는 답변이 오답률이 높음에도 일반적으로 타당한 것처럼 보이고 답변을 만들어 내기가 너무 쉽다”고 지적했다.
하지만 현직 개발자들 사이에서는 구글 검색 대신 코드 검색 용도로 점차 많이 쓰일 것 같다는 기대감이 나오기도 한다. 챗GPT는 코드에서 에러가 발생할 수 있는 지점을 알려주는 ‘코드리뷰’도 가능하기 때문이다. 한국 대형 포털 사이트의 한 개발자는 “구글을 통한 코드 검색은 단순 키워드 검색을 하고 목록에서 직접 해결책을 찾아야 한다면 챗GPT는 대화의 문맥을 이해하고 해결책을 같이 찾아주는 형식이라 개발자들이 많은 기대를 하고 있다”고 말했다.
오류가 많고 데이터가 충분하지 않으며 저작권 등 윤리적인 문제가 있을 수 있다는 문제점은 챗GPT를 개발한 오픈AI 역시 잘 알고 있다. 뉴욕타임스에 따르면 오픈AI는 지난해 말이 아니라 올해 상반기에 챗 GPT를 공개할 계획이었다. 더 고도화된 데이터베이스를 적용하기 위해서다.
하지만 오픈AI 경영진은 다른 빅테크 기업이 비슷한 성능을 가진 챗봇을 내놓을 것을 우려해 2021년까지의 데이터만 학습한 챗GPT를 공개했다. 오픈AI 경영진이 챗GPT 출시를 결정하기까지는 고작 13일이 걸렸다고 한다.
미라 무라티 오픈AI 최고기술책임자(CTO)는 2월 5일 공개된 미국 시사 주간지 ‘타임’과의 인터뷰에서 “AI는 남용될 수 있고 나쁜 이들이 사용할 수도 있다”며 “이 기술을 전 세계적으로 어떻게 관리할 것이냐는 문제가 있다”고 인정했다. 그는 구체적으로 “AI 기술을 인간의 가치에 맞춰 조정하면서 사용하도록 어떻게 관리할 것이냐”가 관건이라고 덧붙였다.
문과는 망하는 것 아니냐는 질문으로 돌아가 보자. 전문가들은 AI 기술이 고도화될수록 인간 AI의 공존만이 해답이라고 말한다.
최 교수는 “세계적인 AI 선구자나 전문가들이 AI의 발전 속도를 예측한 내용도 틀리는 경우가 매우 많다”며 “교통과 통신, 기술이 발달해 오면서 생산성이 크게 향상되는 역사가 반복돼 왔지만 인간은 늘 변화된 사회에 적응하는 법을 터득해 왔다. AI가 발달할수록 비 인간적이고 반복적인 일을 기계에게 맡길 수 있게 된다면 더 많은 사람들이 인간적인 삶을 살 수도 있다”고 말했다.
미국에서는 대학 수업에 챗GPT 사용을 ‘의무화’한 사례도 등장했다. 미국 공영 라디오 NPR에 따르면 명문 MBA인 펜실베이니아대 와튼스쿨의 이선 몰릭 교수는 올해 강의에 ‘챗GPT’를 허용한 것은 물론 사용을 의무화했다.
NPR은 몰릭 교수가 이를 통해 인간과 기계 모두에 '우리는 함께 잘 지낼 수 없나'라는 메시지를 던지고 있다고 전했다. 몰릭 교수는 "우리는 전자계산기가 있는 세계에서 수학을 가르쳤다"며 "이제 교육자들에게 주어진 과제는 학생들에게 이 세상이 다시 어떻게 변했고 그 변화에 어떻게 적응할 수 있는지 가르치는 것"이라고 말했다.
출처: 한국경제
https://n.news.naver.com/article/050/0000064023?cds=news_my
2. “챗GPT에 과제 맡겼더니 A”… 개학 앞둔 대학 비상 (2023.02.10)
“계절학기 보고서를 챗GPT로 (작성해서) 냈다. 결과는 A+”
지난 31일 서울대 온라인 커뮤니티 에브리타임에 올라온 글이다. 여기엔 “과연 표절인가? 그렇다면 ‘누구’의 글을 표절한 것인가?”라는 답글이 달렸다.
서강대 온라인 커뮤니티에서도 지난달 7일 “컴퓨터 과제를 하다가 ‘이거 왜 안 되지?’ 궁금할 때 챗GPT에 물어보면 답 잘해준다. 나도 챗GPT가 말해준 대로 코드 수정을 했더니 깔끔해져서 좋았다”는 글이 올라왔다. 학생들은 “진심 놀랍더라” “인간 시대의 끝이 도래했다”고 댓글로 호응했다.
고려대 4학년 A씨는 “학교 커뮤니티 ‘고파스’에 ‘챗GPT 사용법 관련 정보를 공유하는 단톡방’에 대한 홍보 글이 올라왔는데, 들어가려고 했더니 벌써 1500명 정원이 꽉 차 있어 아쉬웠다”고 했다.
출시 두 달여 만에 전 세계적으로 반향을 끌고 있는 AI(인공지능) 챗봇 ‘챗GPT’. 미국에서 챗GPT를 활용해 숙제나 시험을 해결하는 학생들이 문제가 되고 있는 가운데 우리나라 대학가에도 ‘챗GPT 대필’ 문제가 뜨거운 감자로 떠오르고 있다. 대학생 온라인 커뮤니티에선 사용 경험을 공유하는 글들이 줄줄이 올라오고, 한 국제학교에선 시험에 챗GPT를 활용하다 적발돼 ‘0점’을 받은 사례도 나왔다. 문제는 학생들은 이렇게 발 빠르게 움직이고 있지만 대부분 대학들은 대책이 없는 상황이라는 점이다. 이 때문에 다음 달 신학기 개강을 코앞에 두고 교육계에 비상이 걸렸다는 지적이 나온다.
9일 본지가 건국대·경희대·고려대·서울대·성균관대·시립대·연세대·중앙대·한국외국어대·한양대 등 수도권 대학 10곳에 문의한 결과, 10곳 모두 ‘AI 대필’ 등 챗GPT 관련 생길 수 있는 문제들에 대한 대학 차원 대책을 마련하지 못했거나 아예 검토조차 하지 않는 것으로 파악됐다.
연세대 관계자는 “챗GPT 로 생길 수 있는 문제점은 알고 있지만, 아직 대학 차원에서 검토 중인 대응책은 없다”고 말했다. 한국외대는 “당장 마련된 대책은 없지만, ‘동전의 양면’을 가진 이슈인 만큼 개강 전에 충분히 논의하겠다”고 밝혔다. 중앙대 교무처 관계자는 “학생들에게 과제를 내고 채점하는 건 모두 교수이기 때문에 챗GPT 관련 대처도 교수 자율”이라며 “현재로는 관련된 별도 가이드라인이나 논의 중인 내용이 없다”고 했다.
본지가 서울대의 전공·교양 수업 중 보고서 평가 비율이 40%가 넘는 과목 30개 강의 계획서를 확인해 본 결과, 표절 금지 경고는 있지만 챗GPT 등 인공지능 프로그램을 쓰면 안 된다는 지침은 아직 없었다.
실제 챗GPT가 써낸 답안은 벌써 미국 대학교 시험을 통과하는 수준에 이르렀다. 최근 미 펜실베이니아대 와튼스쿨 한 교수가 MBA(경영대학원) 과정 필수 과목 ‘운영관리’ 기말 시험을 GPT에게 치르게 했더니 B 또는 B- 학점을 받을 수준 결과를 내놓았다. 미네소타대 로스쿨 교수들이 챗GPT에게 기말 시험 4과목을 응시하게 했더니 평균 C+ 학점을 받았다. 낮은 성적이지만 통과는 한 것이다. GPT는 대체로 객관식보다는 에세이를 더 잘 썼다고 한다. 이런 문제 때문에 일부 대학들은 챗GPT가 쓴 글인지를 식별하는 ‘제로GPT’ 프로그램 등을 활용해 챗GPT를 통한 대필이나 표절을 가려내려 하고 있다.
우리도 개별 교수들이 챗GPT 관련 지침을 마련한 경우는 있다. 권석준 성균관대 화학공학과 교수는 다음 1학기 강의 계획서에 “공부하는 과정에서 챗GPT 등 AI를 활용할 수는 있지만, AI를 활용해 생산한 답안을 자신이 쓴 것처럼 제출하면 부정행위로 간주하겠다”고 공지했다.
무조건 금지하는 것보다 현명하게 활용할 수 있는 방법을 가르쳐야 한다는 의견도 나온다. 김정호 KAIST 전기·전자공학과 교수는 다음 학기 수업에서 학생들에게 코딩 과제를 할 때 챗GPT를 활용할 수 있도록 지침을 줄 계획이다. 김 교수는 “어차피 기술 발전 흐름을 거스르긴 어렵다”면서 “무리하게 막기보단 이를 잘 활용해 새로운 창의성을 개발해가는 쪽으로 발상을 전환하는 게 낫다”고 말했다.
박남기 광주교대 교육학과 교수는 “이제 수업은 미리 촬영한 동영상으로 대체하고, 수업 시간엔 학생들이 직접 과제를 하거나 평가를 보도록 하는 ‘플립러닝(flipped-learning)’ 등 새로운 교수법과 평가 방법을 고민해야 할 때”라면서 “챗GPT는 AI가 어떤 자료들을 참고해 작성했는지는 모르기 때문에, 모든 과제에 출처를 명확하게 작성하도록 저작권 교육을 강화하는 것도 방법”이라고 말했다.
출처: 조선일보
https://www.chosun.com/national/education/2023/02/10/2PMQM6YIMZAAZKQI7ZJNM26IUM/
3. 이주호 "AI, 지식주입식 교육에 타격…답 아닌 질문법 교육해야" (2023-02-16)
이주호 사회부총리 겸 교육부 장관이 한국 같은 암기 위주의 교육체계는 인공지능(AI) 기술 발전에 큰 타격을 받는다며 "학생들에게 답이 아닌 질문을 하는 방법을 교육해야 한다"고 강조했다.
미국 일부 대학에서 챗GPT 사용을 금지했다는 여당 의원의 언급에는 '미봉책'이라는 해석이 나온다며 부정적인 입장을 밝혔다.
국민의힘 이태규 의원은 "교육에 어떤 기준을 갖고 사용하고 어떤 규제를 할 것인지 입장정리가 필요하다"며 "지금도 공교육에 대한 불신 때문에 사교육이 번창하는데 문제를 풀 때 선생님의 설명이나 해법이 챗GPT보다 못할 경우 아이들이 학교나 교사를 어떻게 생각하겠느냐"고 말했다.
이 부총리는 챗GPT의 출현에 대해 "'올 것이 왔다'고 생각했다"며 "가장 큰 도전은 더 이상 학생들에게 답을 요구하는 교육으로는 챗GPT가 이끄는 세상을 준비 못 시킨다는 것"이라고 말했다.
그는 "AI 기술에 가장 타격을 많이 입는 교육체계가 한국처럼 지식 전달에 집중하고 암기력만 요구하는 학습체계"라며 "아이들이 답하는 것이 아니고 질문하도록 교육해야 이 문제를 해소할 수 있다"고 말했다.
미국에서는 챗GPT를 쓰지 못하도록 하는 대학이 있다는 지적에는 부정적인 입장을 내비쳤다.
이 부총리는 "일부 대학에서 금지하다가, 금지하는 것이 미봉책에 불과하다는 해석이 이어지는 것으로 알고 있다"며 "교육에 대한 근본적인 성찰이 필요하고, 이것을 교육개혁의 큰 자극으로 삼아야 한다"고 답했다.
유기홍 교육위원장(더불어민주당)은 "각계 전문가와 교육학술정보원(KERIS)까지 포함해 (챗GPT) 활용법, 윤리, 부정행위를 할 수 없게끔 만드는 장치 등에 대한 종합적인 대책을 조속하게 마련해달라"고 촉구했다.
서유미 한국교육학술정보원장은 "내부 토론과 정책연구를 추진하고 있다"며 "교사나 전문가들이 모여 사회적 논의를 통해 안전하고 윤리적으로 (챗GPT를) 활용할 방안을 모색해야 한다"고 말했다.
출처: 연합뉴스
https://www.yna.co.kr/view/AKR20230216131100530?input=1195m
#직진톡 #성향검사 #멘토링 #입시컨설팅 #진로진학 #진로상담 #진학상담 #성적향상컨설팅 #자기주도학습컨설팅 #학습법컨설팅 #학습컨설팅 #공부법컨설팅 #MBTI #멘토링플랫폼 #멘토링사이트 #진로체험 #진로탐험 #진로탐색 #챗GPT대학교육 #챗GPT문과몰락 #챗GPT문과침공 #챗GPT표절 #챗GPT금지