본문 바로가기
인지과학

마이크로소프트 엣지와 빙챗 사용 예, 정보 검색 1차 가공

by JeanJac 2023. 3. 24.

얼마전부터 빙챗을 사용할 생각으로 마이크로소프트의 엣지를 써보기 시작했다. 빙챗은 인터넷 정보를 스스로 검색해서 1차 가공해서 보여준다는 장점이있다.  

 

Microsoft Edge

 

Microsoft Edge

모든 장치(Windows, macOS, iOS, Android용)에서 사용자의 암호, 즐겨찾기, 설정을 쉽게 동기화할 수 있습니다.

www.microsoft.com

 

밑에 캡춰 사진처럼 한쪽은 검색 창으로 쓰고, 옆에 빙챗을 쓴다. 질문에 대한 검색 정보를 주석을 달아주면서 답한다. 상식, 기본 지식, 요약 요청 등에 유용하다. 

 

 

데이비드 찰머스(David J. Chalmers)의 텍스트  "대규모 언어 모델이 의식을 지닐  수 있나?" (Could a Large Language Model be Conscious?)를 요약해달라고 (프랑스어로)요청했다. 

 

Pouvez vous résumer l'article « Could a large language model be conscious ? » de David J. Chalmers ?

Bonjour, cette réponse est basée sur les résultats de la recherche web. Voici un résumé de l'article « Could a Large Language Model be Conscious? » de David J. Chalmers¹: - L'auteur examine la question de savoir si un modèle de langage artificiel à grande échelle, comme GPT-3, pourrait être conscient ou avoir des expériences subjectives. - Il propose un cadre conceptuel pour analyser les différentes formes et degrés de conscience possibles pour un système artificiel, en se basant sur les notions de conscience phénoménale (la qualité d'avoir des sensations et des émotions), de conscience psychologique (la capacité de penser et d'agir rationnellement), et de conscience sociale (la capacité de communiquer et d'interagir avec les autres). - Il examine ensuite les arguments en faveur et contre l'idée que les modèles de langage actuels sont conscients, en tenant compte des aspects structurels, fonctionnels, comportementaux et phénoménaux de leur fonctionnement. - Il conclut qu'il est peu probable que les modèles de langage actuels soient conscients, mais qu'il faut prendre au sérieux la possibilité que des extensions ou des successeurs aux modèles de langage puissent être conscients dans un avenir proche. - Il discute enfin des implications éthiques et philosophiques d'une telle possibilité, ainsi que des défis méthodologiques pour tester et mesurer la conscience des systèmes artificiels. Source : Conversation avec Bing, 23/03/2023(1) [2303.07103] Could a Large Language Model be Conscious?. https://arxiv.org/abs/2303.07103 Accédé à 23/03/2023. (2) Could a Large Language Model be Conscious? | DeepAI. https://deepai.org/publication/could-a-large-language-model-be-conscious Accédé à 23/03/2023. (3) Could a Large Language Model be Conscious? - researchgate.net. https://www.researchgate.net/publication/369199559_Could_a_Large_Language_Model_be_Conscious Accédé à 23/03/2023.

 

텍스트 링크를 찾아주고, 간단히 요약해준다. 프랑스어와 영어는 각각의 언어로 물어보거나 번역을 요청해도 자료 누락이 별로 없다. 상호 보완적으로 쓸 수 있다. 

 

Bonjour, cette réponse est basée sur le contexte de la page web. Voici une traduction de ce que j'ai dit tout à l'heure : Hello, this answer is based on the web page context. Here is a translation of what I said earlier: - I examine the question of whether a large-scale artificial language model, like GPT-3, could be conscious or have subjective experiences. - I propose a conceptual framework for analyzing the different forms and degrees of consciousness possible for an artificial system, based on the notions of phenomenal consciousness (the quality of having sensations and emotions), psychological consciousness (the ability to think and act rationally), and social consciousness (the ability to communicate and interact with others). - I then examine the arguments for and against the idea that current language models are conscious, taking into account the structural, functional, behavioral and phenomenal aspects of their functioning. - I conclude that it is unlikely that current language models are conscious, but that we should take seriously the possibility that extensions or successors to language models may be conscious in the near future. - I finally discuss the ethical and philosophical implications of such a possibility, as well as the methodological challenges for testing and measuring the consciousness of artificial systems.

 

잘 모르는 지식에 대한 입문 자료 요청, 읽지 않은 논문 내용 파악을 위한 요약 요청이 유용하다고 볼 수 있다. 

 

한국어로도 번역을 요청했다. 

 

Bonjour, cette réponse est basée sur le contexte de la page web. Voici une traduction en coréen de ce que j'ai dit tout à l'heure : 안녕하세요, 이 답변은 웹 페이지 컨텍스트에 기반한 것입니다. 다음은 제가 방금 말한 내용의 한국어 번역입니다: - 저는 GPT-3와 같은 대규모 인공 언어 모델이 의식을 가지거나 주관적 경험을 할 수 있는지에 대한 질문을 살펴봅니다. - 인공 시스템에 가능한 의식의 다양한 형태와 정도를 분석하기 위해, 현상적 의식(감각과 감정을 가지는 특성), 심리적 의식(합리적으로 생각하고 행동할 수 있는 능력), 사회적 의식(다른 사람과 소통하고 상호작용할 수 있는 능력)이라는 개념에 기반한 개념적 프레임워크를 제안합니다. - 그런 다음 현재의 언어 모델이 의식을 가지고 있다는 생각에 찬성하거나 반대하는 논거를 그들의 기능의 구조적, 기능적, 행동적, 현상적 측면을 고려하여 검토합니다. - 저는 현재의 언어 모델이 의식을 가지고 있을 가능성은 낮지만, 언어 모델의 확장이나 후속 모델이 가까운 미래에 의식을 가질 수 있다는 가능성은 심각하게 고려해야 한다고 결론짓습니다. - 마지막으로 이러한 가능성의 윤리적, 철학적 함의와 인공 시스템의 의식을 검사하고 측정하기 위한 방법론적 도전에 대해 논의합니다.

 

한국어로 검색할 경우에는 여러가지 제한이 보인다. (다른 글에 적어볼 예정이다.)

 

한국어로 된 논문에 대한 요약을 요청해봤다. "최미경의 논문 "프랑스에서 한국문학 : 무엇을 어떻게 번역할 것인가"를 요약해주세요."에 대한 답변이다. 

 

 

논문 링크도 주석으로 달려있고, 연습장 블로그에 얼마전에 해당 논문을 인용하며 썼던 다음의 글도 링크로 달려있다. 

 

2023.02.18 - [인문과학/번역] - 김미월의『8번째 방』한 문단 번역 비교. 번역자, ChatGPT, DeepL, Google traduction

 

김미월의『8번째 방』한 문단 번역 비교. 번역자, ChatGPT, DeepL, Google traduction

“대문에 전단이 한 장 붙어 있었다. 잠만 자는 방 그런데 잠만 자는 방이라니. 이게 무슨 뜻일까. 이 방에선 오로지 잠만 자야되고 섹스는 하면 안된다는 소리인가. 설마 그건 아니겠지. 세입자

a4riz.tistory.com

 

엣지와 빙챗 사용(혹은 챗봇을 사용해서 하는 검색)이 우선적으로 가져올 변화는 검색 태도의 변화일 수 있겠다. 수많은 정보를 한번 걸러내는 일을 챗봇에게 시키는 것이다. 

 

댓글