2026년 4월 2주차 - Flitto AI Picks 2026년 4월 2주차 Flitto AI Picks |
|
|
|
안녕하세요. 4월이 찾아왔습니다.
벚꽃이 만개한 요즘, 설레는 마음과 함께 읽어주세요!🌸
4월 둘째 주 Flitto AI Picks는 더 다채로워졌습니다.
☑️ 법정에서 결정적 증거가 된 '챗GPT와의 상담' 👩⚖️
☑️ AI가 쓴 논문, 세계 최고 학술지 '네이처'까지 갔다💡
☑️ 쿼카쌤이 알려주는 AI 용어 #6
☑️ 지식-공유 LLM" vs "지식-창출 LLM"
다양한 AI 이야기 읽어보세요!
👇START |
|
|
법정에서 결정적 증거가 된 '챗GPT와의 상담'👨⚖️ |
|
|
2025년 말, LA의 대형 화재 범인을 잡은 일등 공신은 뜻밖에도 챗GPT였습니다. 방화 혐의를 받은 남성이 AI에게 "내 담뱃불로 불이 나면 내 책임인가?"라고 물었던 대화 기록과 AI가 생성한 불타는 마을 영상이 법정 증거로 채택된 것이죠. 매주 9억 명이 사용하는 AI는 이제 단순한 도구를 넘어, 우리의 의도와 속마음을 기록하는 일기장이 되었고, 법적 증거가 되었습니다. 무심코 던진 질문 하나가 어느 날 나를 겨냥한 결정적인 단서가 될 수 있습니다.
이러한 일이 가능한 이유는 AI와의 대화가 법적으로 보호받는 '비밀 상담'이 아니라는 점입니다. 우리는 챗봇을 친구처럼 대하며 고민을 털어놓지만, 법적으로 AI 기업은 그저 사용자 데이터를 수집하는 서비스 제공자일 뿐입니다. 실제로 변호사 없이 클로드와 방어 전략을 짜던 한 피고인은 '비밀유지특권'을 인정받지 못해 낭패를 보았습니다. 별생각 없이 입력한 프롬프트가 서버에 저장되는 순간, 그것은 더 이상 사적인 독백이 아닌 강력한 증거가 됩니다.
|
|
|
이 리스크는 비즈니스에서 더 치명적입니다. 최근 미국 법원에서는 한국 기업이 M&A 계약 조항을 우회할 방법을 챗GPT에게 묻고 실행한 내역이 발견되어 재판의 승패를 갈랐습니다. 배심원들은 이메일보다 AI와의 대화가 훨씬 더 진심을 담고 있다고 믿기 때문입니다. 증인이 법정에서 "우리는 규정을 지켰다"고 아무리 주장해도, 뒤에서 AI에게 "규정 안 걸리고 사람 자르는 법"을 물어본 기록이 나온다면 그 신빙성은 단숨에 무너지고 맙니다.
결국 AI 시대의 대화창은 벽에 대고 하는 혼잣말이 아니라는 사실을 기억해야 합니다. 기업들은 이제 AI 사용 내역을 이메일처럼 엄격하게 관리하고, 소송 가능성이 있는 민감한 사안은 반드시 법무팀의 가이드라인 안에서 다뤄야 합니다. 기업은 이를 관리 대상 자산으로 보고, 개인 역시 한 번 더 생각하는 습관이 필요합니다. 간단합니다. AI에 질문을 던지기 전, "법정에서 이 내용이 공개되어도 괜찮을까?"를 생각해 보세요.
|
|
|
AI가 쓴 논문, 세계 최고 학술지 '네이처'까지 갔다💡 |
|
|
AI가 연구부터 논문 작성까지 전 과정을 수행한 사례가 등장하며 학계의 이목이 쏠고 있습니다. 세계적 학술지 '네이처(Nature)'에 AI가 주도적으로 작성한 논문이 게재된 것으로 알려졌습니다. 이로 인해 '연구 자동화'가 현실화되고 있다는 평가가 나옵니다. 해당 연구는 'AI 사이언티스트-v2'가 아이디어 도출부터 실험 설계, 논문 작성까지 수행한 사례로, 이른바 '엔드투엔드(End-to-End)' 연구 방식의 가능성을 보여줬습니다.
이 시스템의 핵심은 수만 편의 논문을 빠르게 탐색하고 실험 코드까지 생성하는 '에이전트 기반 탐색' 구조에 있습니다. 특히 연산 자원이 늘어날수록 연구 결과의 완성도까지 함께 높아지는 '스케일링 법칙'이 관찰되면서, 연구 성과가 점점 자본과 인프라에 의존하는 구조로 이동할 가능성도 제기됩니다.
|
|
|
이러한 흐름은 실제 연구 생태계에서도 나타나고 있습니다. 대표적인 AI 학회인 NeurIPS의 논문 제출 수는 최근 5년간 두 배 이상 증가했으며, AI 도구를 적극 활용하는 연구자는 그렇지 않은 경우보다 논문 생산성과 인용 성과 모두에서 큰 격차를 보이는 것으로 나타났습니다. 이제는 연구자의 역량을 평가하는 기준 자체가 'AI 활용 능력'으로 이동하고 있다는 분석도 나옵니다.
결국 우리는 "논문의 양이 곧 실력인가"라는 근본적인 질문과 마주하게 됩니다. AI가 대량의 결과를 빠르게 만들어내는 시대에는, 단순한 생산성이 아니라 '어떤 질문을 던질 것인가'가 연구의 핵심 경쟁력으로 떠오를 가능성이 큽니다. 앞으로는 결과물의 양이 아닌, 그 뒤에 담긴 문제 정의와 해석의 깊이를 어떻게 평가할 것인지에 대한 새로운 기준이 요구되는 시점입니다.
|
|
|
쿼카 쌤이 알려주는 AI Tech 용어 #6 👩🏫
안녕하세요, 쿼카 쌤입니다.🐨
예전보다는 AI 뉴스가 좀 더 쉽게 읽히는 것 같죠?
여러분을 응원하는 마음으로, 오늘도 함께해보겠습니다😀
|
|
|
🛠️ MLOps (Machine Learning Operations, 기계 학습 운영)
: 머신러닝 모델을 개발하는 것에서 끝나지 않고, 배포·운영·모니터링까지 전 과정을 체계적으로 관리하는 방식이에요. 모델을 만드는 연구 단계를 넘어, 실제 서비스에서 사고 없이 돌아가게 만드는 엔지니어링의 영역이죠. AI를 ‘제품’으로 만드는 데 필수적인 개념이에요.
✅ 포인트
- 개발부터 배포·운영까지 전 과정 관리
- 모델 성능 모니터링 및 지속 개선
- AI 서비스 안정성과 확장성 확보
|
|
|
👄 X AI (Explainable AI, 설명가능한 AI)
: AI가 내린 결과에 대해 왜 그런 판단을 했는지 설명할 수 있도록 만드는 기술이에요. 정확한 것만큼이나, 그 이유를 이해할 수 있는지가 중요한 영역이죠. AI의 신뢰성과 투명성을 높이기 위한 접근입니다.
✅ 포인트
- AI 의사결정 과정의 투명성 확보
- 금융·의료 등 규제 산업에서 중요
- 신뢰할 수 있는 AI 구축의 핵심 요소
|
|
|
👩🏫 RLHF (Reinforcement Learning from Human Feedback, 인간 피드백 기반 강화학습)
: AI가 사람의 평가와 피드백을 바탕으로 더 나은 답변을 하게 하는 학습법입니다. 사람이 “이 답이 더 좋다”고 알려주면 그 방향으로 행동을 조정하죠. AI의 응답 품질과 자연스러움을 끌어올리는 핵심 방법입니다.
✅ 포인트
- 사람의 선호·평가를 학습에 반영
- 응답 품질·자연스러움 개선
- LLM 성능 향상의 핵심 학습 방식
|
|
|
지식-공유 LLM" vs "지식-창출 LLM"
: AI는 더 이상 지식을 나누지 않고, 독점한다!
|
|
|
대규모 언어 모델(LLM)에 대한 논의는 오랫동안 "생산성 도구"라는 틀 안에 갇혀 있었습니다. AI는 인간이 이미 알고 있는 지식을 더 빠르고 싸게 퍼뜨리는 기술이며, 그 효과는 자동화, 효율성, 그리고 지식의 민주화로 요약되었습니다.
그러나 최근 나타난 변화는 이 프레임 자체가 더 이상 충분하지 않음을 드러냅니다. LLM은 이제 지식을 전달하는 존재가 아니라, 지식을 만드는 존재로 이동하고 있습니다. 그리고 이 전환은 단순한 성능 향상이 아니라, AI의 경제적·제도적 성격을 근본적으로 바꾸는 사건입니다.
기존의 LLM은 인간의 판단을 정답으로 삼아 학습되었습니다. 이들은 전문가가 할 법한 말을 잘 흉내 내고, 이미 문서화된 지식을 정리하고 설명하는 데 탁월합니다. 그 결과 LLM은 지식의 유통 비용을 급격히 낮췄고, 전문성에서 발생하던 경제적 지대(knowledge rents)를 무너뜨렸습니다. 경력 초반의 사람, 비전문가, 혹은 자신의 전문 영역 밖에서 문제를 푸는 사람일수록 더 큰 효용을 얻습니다.
그러나 이 모델의 본질은 어디까지나 기존 지식의 재배치입니다. 지식의 경계에 도달하는 순간, 더 많은 토큰과 더 많은 질문은 거의 아무것도 만들어내지 못합니다. |
|
|
반면 최근 부상하는 LLM은 전혀 다른 방식으로 훈련되고 있습니다. 인간의 평가가 아니라, 현실 세계에서 검증 가능한 보상 즉 수학적 증명, 알고리즘 성능과 같은 실험 결과들을 기준으로 학습됩니다. 이들은 “우리가 이미 아는 질문에 대한 답”이 아니라, 아직 아무도 풀지 못한 문제를 대상으로 작동합니다.
예를 들어, 알고리즘을 직접 개선하고, 새로운 수학적 해법을 찾고, GPU 커널이나 생물학적 분석에서 기존 최고 성능을 넘어서는 결과를 만들어냅니다. 이 순간 LLM은 지식 전달 인프라가 아니라, 일반 목적의 발견 엔진이 됩니다.
이 변화가 우리에게 중요한 이유는 경제학적으로 두 유형의 LLM이 완전히 다른 성질을 가지기 때문입니다.
지식-공유 LLM에서 개별 문제에 대한 연산 수익은 빠르게 체감합니다. 반면 지식-창출 LLM에서는 하나의 돌파구가 광범위하게 재사용되기 때문에, 단일 문제에 수십억 토큰을 쓰는 것이 합리적일 수 있습니다. 그리고 무엇보다 결정적인 차이는 배타성입니다. 기존 지식은 모두가 동시에 써도 가치가 유지되지만, 새로운 지식은 혼자만 쓸 때 가장 큰 가치를 가집니다.
이로 인해 AI 연구소가 지식-창출 능력을 일반 API로 공개하지 않고, 내부 활용이나 제한적 라이선싱을 선택할 유인이 생길 수도 있습니다. 이 흐름은 AI 산업의 미래가 “많이 쓰는 서비스”가 아니라, “먼저 발견하는 조직” 중심으로 재편될 가능성을 시사합니다.
더 나아가 세상의 수많은 문제가 사실은 소수의 정형화된 문제 다시 말해 최적화, 제약 만족, 추론으로 환원될 수 있다는 관점에 서면, 진짜 경쟁은 이 몇 개의 정교한 문제에서 누가 가장 앞서 나가느냐로 수렴합니다. 개별적인 응용문제를 싸게 해결하는 것은 부차적인 문제가 되고, 핵심 문제에서의 미세한 진보가 막대한 경제적 이익을 낳습니다. |
|
|
결국 지식-창출 LLM의 등장은 기술의 문제가 아니라 권력의 문제입니다. 누가 지식의 프런티어를 확장할까요, 그 지식은 누구에게, 어떤 조건으로 공유될까요. 만약 현행 제도가 그대로 유지된다면, 우리는 AI가 만든 새로운 지식 위에서 거대한 지적재산권의 선점 경쟁, 일종의 지식 모노폴리를 보게 될 가능성이 큽니다. 역설적으로, 이 독점이 반드시 혁신을 유도하는 데 필요한지도 사실 불분명합니다.
AI는 한때 지식을 민주화하는 기술로 불렸습니다. 그러나 이제 AI는 지식을 다시 희소한 자원으로 만들고 있습니다. 중요한 질문은 AI가 얼마나 똑똑해질 것인가가 아닙니다. AI가 만든 지식을 누가 소유하게 될 것인가, 그리고 그 선택이 우리 사회의 생산성과 분배를 어떻게 바꿀 것인가입니다.
지식-공유의 시대는 끝나가고 있습니다. 앞으로의 AI는, 나누는 존재가 아니라 소유하는 존재에 가까울 것입니다. |
|
|
오픈AI가 AI 동영상 생성 앱 '소라' 서비스를 중단하며 사업 구조 재편에 나섰습니다. 이번 결정은 IPO를 앞두고 코딩 및 기업 고객 중심으로 전략을 전환하려는 조치로 분석됩니다. 소라는 출시 5일 만에 100만 다운로드를 기록하며 주목받았지만 이후 이용자 증가세가 둔화하며 성장에 한계를 보였습니다. 내부적으로는 막대한 연산 자원 대비 성과가 부족하다는 평가가 이어진 것으로 알려졌습니다. 저작권 침해와 딥페이크 등 콘텐츠 관련 논란도 서비스 중단 결정에 영향을 미쳤습니다. 샘 올트먼 CEO는 자본 조달과 데이터센터 구축 등 핵심 인프라에 집중하기 위해 철수를 결정했다고 밝혔습니다. 오픈AI는 차세대 AI 모델 개발을 위해 자원 재배분에 나설 계획입니다. 이에 따라 월트디즈니 컴퍼니와의 대규모 투자 및 라이선스 계약도 함께 종료됐습니다.
|
|
|
국가인공지능전략위원회가 국내 주요 AI 기업들과 간담회를 열고 '독자 AI 파운데이션 모델' 프로젝트의 핵심 과제로 데이터 확보 방안을 논의했습니다. 이번 회의에는 LG AI연구원, Upstage, SK Telecom 등 주요 기업이 참여해 현장의 애로사항을 공유했습니다. 참석 기업들은 공통적으로 AI 경쟁력의 핵심이 데이터에 있다며 제도 개선과 인프라 구축 필요성을 강조했습니다. LG AI연구원은 데이터 활용 확대를 위한 저작권 등 규제 정비 필요성을 제기했습니다. 업스테이지는 한국어 AI 경쟁력 강화를 위해 납본 도서 데이터화와 TDM(Text and Data Mining) 면책 규정 마련을 제안했습니다. SK텔레콤은 공공 데이터의 품질 검증 체계 고도화와 민감 정보 처리 부담 완화를 요청했습니다. 모티프테크놀로지스는 기업 단독으로는 대규모 데이터 구축이 어려운 만큼 국가 차원의 공용 데이터셋 필요성을 강조했습니다. 정부는 독파모 프로젝트 성공을 위해 민관 협력을 기반으로 데이터 중심 지원을 강화하겠다고 밝혔습니다.
|
|
|
제미나이 사용자 3명 중 2명은 기존에 챗GPT를 사용하다가 서비스를 전환한 것으로 나타났습니다. 조사에 따르면 챗GPT 이용자의 90%는 처음부터 해당 서비스를 사용했지만, 제미나이 이용자의 65%는 챗GPT를 먼저 경험한 것으로 집계됐습니다. 이는 제미나이가 후발주자임에도 기존 사용자층을 일부 흡수하고 있음을 보여줍니다. 서비스 선택 이유에서도 차이가 나타났습니다. 챗GPT 사용자는 무료 기능과 비용 효율성을 주요 이유로 꼽았습니다. 반면 제미나이 이용자는 사용성, 응답 속도, 정확성 등 업무 효율과 직결된 요소를 더 중요하게 평가했습니다. 또한 제미나이 이용자는 평균적으로 더 다양한 AI 서비스를 경험한 사용자층인 것으로 분석됐습니다. 보고서는 챗GPT는 선발주자 이점, 제미나이는 구글 생태계 기반 경쟁력을 바탕으로 시장 경쟁이 심화되고 있다고 평가했습니다.
|
|
|
플리토가 베트남 호치민시 인문사회과학대학과 AI 인력 양성 및 베트남어 데이터 개발을 위한 업무협약을 체결했습니다. 양측은 베트남어 데이터 구축과 품질 향상, AI 번역 기술 고도화, 인력 교육 등 5개 분야에서 공동 프로젝트를 추진할 계획입니다. 이번 협약은 고품질 언어 데이터 확보와 현지 전문 인력 양성을 위한 협력 체계 구축에 목적이 있습니다. 특히 데이터 품질 검증, 언어 표준화, 현지 인력 참여 확대 등 실무 중심 협력을 강화하기로 했습니다. 플리토는 그동안 베트남 시장에서 저자원 언어 데이터 구축 경험을 축적하며 사업 기반을 넓혀왔습니다. 협약을 계기로 연구·교육 협력 모델을 확대하고 동남아 AI 시장 공략을 가속할 방침입니다. 베트남은 AI 도입과 시장 성장이 빠르게 진행되는 핵심 거점으로 평가됩니다. 이정수 대표는 이번 협력이 언어 데이터 품질 향상과 AI 통번역 기술 발전에 이바지할 것이라고 밝혔습니다.
|
|
|
플리토가 B2B 통번역 솔루션과 데이터 사업을 기반으로 실적 성장을 이어가며 기업 커뮤니케이션 인프라 시장에서 입지를 확대하고 있습니다. 음성인식 AI가 단순 기록을 넘어 번역과 후속 업무까지 지원하는 방향으로 진화하면서 기업용 수요가 빠르게 증가하는 흐름입니다. 플리토는 이러한 흐름 속에서 지난해 매출 360억 원, 영업이익 62억 원을 기록하며 창사 이래 첫 연간 흑자를 달성했습니다. 특히 실시간 통번역 솔루션 '라이브 트랜스레이션' 수요 확대와 데이터 판매 증가가 실적 개선을 견인했습니다. 해당 솔루션은 글로벌 IT 기업 행사에서 활용되며 현장 데이터를 기반으로 AI 성능 고도화에도 기여하고 있습니다. 일본 법인 매출이 50억 원을 넘어서며 애니메이션·게임·출판 등 콘텐츠 산업 중심의 B2B 확장이 성과로 이어졌습니다. 또한 정부 '독자 AI 파운데이션 모델' 프로젝트에서 데이터 총괄 역할을 맡으며 기술력도 입증했습니다. 플리토는 이를 기반으로 북미 및 중동 시장까지 글로벌 사업 확장을 가속화할 계획입니다.
|
|
|
플리토 (Fliitto Inc.)
서울 강남구 영동대로96길 20 대화빌딩 6층
|
|
|
|
|