챗GPT 프롬프트 연습 – Chain-of-Thought Prompting

챗GPT 프롬프트의 단계적 해석을 요청하는 Chain-of-Thought Prompting

안녕하세요. 아자스마일입니다. 오늘은 챗GPT에서 Chain-of-Thought Prompting 에 대해 알아보고 연습해보려고 합니다. 프롬프트 학습에 앞서 이번 달에 참가할 지식 창업 클래스에 대해 간단히 이야기 하고자 합니다.

이번 달 5월 19일에 지식 창업 관련 오프라인 교육에 참가합니다. 거기에 아나의디노님도 강연자이고, 신사임당으로 유명한 주언규 PD님도 강연을 한다고 합니다.

과연 그 분들의 지식을 얼만큼 내 것으로 만들 수 있을지 걱정이 많습니다. 하지만 저도 지식 창업에 대해 많은 관심을 가지고 있기 때문에 열정적으로 들어서 조금이라도 얻어낼 작정입니다.

클래스를 신청하면서 과연 나도 지식 창업을 한다면 어떤 주제나 제품으로 다른 분들께 도움이 될 수 있을까에 대해서도 생각했습니다.

개발자로서는 다양한 경험을 했지만 가르쳐주고 알려주기에는 깊이가 부족하다고 생각하고 있습니다. 깊이를 쌓고 개발자로서 지식 창업을 하면 어떨까?도 생각을 했습니다.

하지만 개발자로서 누군가를 가르치기에는 부족하고 내가 만들고 싶은 것을 만드는 것 자체가 좋기 때문에 좋아하는 것을 개발하는 것으로 지속하려고 합니다.

대신에 조금씩 남는 시간에 인공지능과 관련하여 여러 서비스를 체험하고, 프롬프트 분야에서 지식의 깊이를 조금 더 높이려고 합니다.

인공지능과 대화하는 프롬프트에 대해서 알아보고, 학습한 지식을 다른 분들께 나눠 드릴 수 있도록 배우겠습니다.

앞에 잡담이 길었지만 본론으로 들어가서 Chain-of-Thought Prompting 에 대해 알아보겠습니다.

Prompt Engineering Guide 에 의하면 Chain-of-Thought Prompting 는 중간 추론 단계를 통해 복잡한 추론을 가능하게 한다고 합니다.

추가된 프롬프트를 통해 인공지능이 복합적인 추론에서 놓치는 부분을 최소화하고 단계별로 결과를 출력함으로써 보다 정확한 추론을 가능하게 해주는 것입니다.

예를 들면 다음 이미지와 같은 경우 입니다. 이미지와 같이 인공지능은 프롬프트의 해석을 단계적으로 해석하고 결과를 출력하는 것이 아니었던 것 같습니다.

Chain-of-Thought Prompting 프롬프트 예시


복합적인 해석 단계를 거쳐서 결과를 출력하는 데, 그 해석 단계에서 오류가 발생할 가능이 있는 것 같습니다.

사용자는 프롬프트를 단계적으로 해석하도록 요청함으로써 복합적인 해석 단계에서 생길 수 있는 오류를 최소화 하는 것 같습니다.

Prompt Engineering Guide 에 나오는 예시와 비슷한 유형을 프롬프트를 만들어서 테스트를 해보았는데, ChatGPT 3.5에서는 문제점이 개선된 것 같습니다.

Chain-of-Thought Prompting 챗GPT 프롬프트 연습을 해보다.


결과를 표시하는 것이 단계적인 요청을 하지 않았는데도, 프롬프트를 해석하면서 단계적 해석이 필요한 것이라 판단하여 단계적 해석을 진행 한 것 같습니다.

따라서 Chain-of-Thought Prompting 는 인공지능 서비스의 코어 기능에서 자체적으로 판단하여 해석하는 수준에 있다고 보고, 필요성은 많지 않은 기능이라고 생각해도 될 것 같습니다.

만약에 인공지능에게 요청할 때 단계적으로나 순차적으로 해석이 필요한 경우 응용해서 사용해볼 수는 있을 것 같습니다.

Leave a Comment