LM 스튜디오는 LLM을 로컬 컴퓨터에서 쉽게 사용하게 해주는 프로그램으로 꽤 인기를 끌고 있습니다. 물론 로컬에서 LLM을 사용하려면 넉넉한 메모리와 어느 정도 사양이 받춰줘야 하지만, 개인정보나 기타 민감 정보 유출 없이 AI 모델을 내 컴퓨터에서 사용할 수 있다는 장점이 있습니다.
하지만 아쉽게도 기본 LM 스튜디오 세팅에서는 이 글을 쓰는 시점까지 인터넷 검색은 할 수 없습니다. 그래서 검색이 가능하게 해보려고 온갖 삽질을 다해봤는데, 결론적으로 다 실패했습니다. 그리고 우연히 알게 된 게 덕덕고 (duckduckgo)입니다. 알고 보니 LM 스튜디오용 플러그인이 있어 아주 쉽게 설치가 가능했습니다. 몇일 삽질한 게 허무할 정도로 말이죠.
이렇게 검색을 한 후
여기서 덕덕고를 활성화시키면 실제로 사용 가능해 집니다. 참고로 아래 영상에서 더 자세한 내용을 바로 볼 수 있습니다.
(유튜브 영상 참조)
물론 AnythingLLM이나 Open WebUI 같은 걸로 잘 사용하시는 분도 있겠지만, 혹시 저처럼 잘 안되시는 분. 그리고 그냥 가볍게 쓰고 싶은데 간단하게 설치하는 방법 궁금하신 분께 조금이라도 도움이 됐으면 좋겠습니다. 그리고 이번에 사용해 보니 젬마 4 26B가 상당히 성능이 괜찮아 보입니다. 실제 결과물을 아래에서 보실 수 있습니다.
실제 젬마 4가 정리한 결과물: https://blog.naver.com/jjy0501/224236166583
제시해주신 블로그 포스트("Ai가 작성한 논문이 리뷰를 통과했다?")의 주요 내용과 이와 관련하여 학계에서 논의되고 있는 연구 및 쟁점들을 정리해 드립니다.
1. 블로그 포스트 주요 내용 요약
해당 블로그는 인공지능(AI), 특히 대규모 언어 모델(LLM)이 작성한 논문이 동료 검토(Peer Review) 과정을 통과했다는 충격적인 사례를 다루고 있습니다.
핵심 사건: 최근 ChatGPT와 같은 생성형 AI가 작성한 학술 논문이 기존의 전통적인 논문 심사 방식(사람이 읽고 평가하는 방식)을 통과하며 학계에 큰 파장을 일으켰음을 언급합니다.
문제 제기: AI가 매우 그럴듯하고 논리적인 문장을 생성할 수 있기 때문에, 사람이 작성한 글과 구분하기 어려워졌으며, 이로 인해 연구의 진실성(Authenticity)을 확인하기 어려운 시대가 왔음을 시사합니다.
우려 사항: 단순히 문장력을 넘어 데이터 조작이나 허위 정보(Hallucination, 환각 현상)가 포함된 논문이 검증 없이 학계에 유입될 수 있는 위험성을 경고합니다.
2. 관련 연구 및 학계의 주요 쟁점 (Related Research & Debates)
이 사건은 단일한 사건이 아니라, 현재 전 세계 학술계가 직면한 **'AI와 과학적 진실성(Scientific Integrity)'**에 관한 거대한 흐름의 일부입니다. 이와 관련된 주요 연구 및 논의 내용은 다음과 같습니다.
① AI 생성 텍스트 탐지 기술 연구 (AI Detection Research)
내용: AI가 쓴 글을 인간이 식별할 수 없게 되면서, 이를 잡아내기 위한 'AI 탐지 도구(AI Detectors)' 개발에 대한 연구가 활발합니다.
한계점: 최근 연구들에 따르면, AI 탐지기는 문장을 약간만 수정하거나 스타일을 바꾸면 쉽게 무력화된다는 한계가 발견되었습니다. 따라서 텍스트의 형태뿐만 아니라 **'데이터의 논리적 일관성'**과 **'실제 실험 데이터와의 일치 여부'**를 검증하는 기술이 핵심 연구 과제로 떠오르고 있습니다.
② 환각 현상(Hallucination)과 허위 인용 문제
내용: LLM은 존재하지 않는 논문을 마치 실제 있는 것처럼 인용하는 '가짜 인용(Fake Citation)' 문제를 일으킵니다.
연구 방향: 학계에서는 AI가 생성한 참고문헌의 정확성을 검증하는 자동화된 워크플로우를 구축하려는 연구가 진행 중입니다. 이는 논문의 신뢰도를 결정짓는 매우 중요한 요소로 다뤄집니다.
③ 윤리적 가이드라인 및 정책 연구 (Ethical Guidelines)
Nature, Science 등 주요 저널의 대응: 세계적인 학술지들은 "AI를 저자로 등록할 수 없다"는 원칙을 세우고, AI 사용 시 반드시 **어떤 부분에 어떻게 사용했는지 명시(Disclosure)**하도록 규정을 강화하고 있습니다.
연구 윤리 재정립: AI가 연구의 보조 도구(문법 교정, 번역 등)로 쓰이는 것은 허용하되, 아이디어 생성이나 결과 해석 등 핵심적인 지적 기여를 AI가 수행하는 것에 대한 경계선을 긋는 연구와 정책 논의가 활발합니다.
④ 과학적 발견의 가속화 vs. 신뢰성 저하 (Acceleration vs. Integrity)
긍긍적 측면: AI를 활용해 방대한 양의 기존 논문을 분석하고, 새로운 가설을 세우거나 단백질 구조를 예측(예: AlphaFold)하는 등 과학적 발견 속도를 획기적으로 높일 수 있다는 연구가 많습니다.
부정적 측면: 위 블로그 내용처럼 검증되지 않은 '가짜 논문'의 양산이 학계 전체의 신뢰도를 떨어뜨리고, 연구 생태계를 교란시킬 수 있다는 우려가 공존합니다.
[요약 결론]
블로그에서 언급된 사건은 **"AI가 인간의 지적 산물인 '논문'의 형식을 완벽히 모사할 수 있게 된 시대"**에 대한 경고입니다. 이와 관련하여 학계는 단순히 AI를 금지하는 것이 아니라, 1) AI 활용의 투명한 공개, 2) 데이터 진위 확인 기술의 발전, 3) 새로운 형태의 동료 검토(Peer Review) 시스템 구축이라는 과제를 해결하기 위해 활발히 연구 중입니다.
참고로 라이젠 7 AI 350 (32GB) 버전 기준으로 속도는 초당 10 토큰 정도 나옵니다.





댓글
댓글 쓰기