본문 바로가기
과학 트랜드

인공지능을 이용한 과학공부에도 검증이 필요하다: GPT-3.5, GPT-4 그리고 Google Bard의 과학적 질문에 대한 답변 비교

by 인싸플랜 2023. 7. 8.

오늘 우연히 기본적인 물리상식인 "공기저항이 없을 때 무게가 서로 다른 물체를 낙하시킨다고 가정했을 때 어떤 물체가 먼저 지면에 도달하는지"에 대한 질문을 ChatGPT에 물어봤습니다. 그러나 GPT-3.5는 완전히 다른 이야기를 하여 놀랐습니다. 때문에 GPT-4와 구글 바드에 같은 질문을 해 보았습니다. 함께 살펴보도록 하겠습니다.

GPT-3.5가 보여준 의외의 결과: 인공지능의 대답은 믿을만 한가?

 

여러분도 공부를 하거나 궁금한 게 있으면 무료 버전인 chatGPT-3.5에게 물어보는 일이 많을 겁니다. 저도 그렇습니다. 그런데 오늘 제가 이 일을 겪고 나니 AI가 해준 말이라고 맹신하면 안 되겠습니다.

제가 다음과 같은 질문을 해봤습니다. "공기저항이 없을 때 무게가 서로 다른 물체를 낙하시킨다고 가정했을 때 어떤 물체가 먼저 지면에 도달하는지"에 대해 chatGPT에게 물어봤습니다.

답변은 무게가 많은 물체가 먼저 떨어진다고 하였습니다. 그래서 저는 GPT-3.5에게 "갈릴레오의 낙하 실험"에 대해 알고 있으면 답해달라고 했습니다.

그랬더니 "갈릴레오는 이를 통해 중력은 물체의 질량과는 독립적으로 작용하는 것을 제시하며, 모든 물체가 동일한 중력 가속도로 낙하한다는 원리를 발견했습니다.

이는 물체의 질량에 관계없이 중력 가속도가 모든 물체에게 동일하다는 의미"라고 알려주는 것이었습니다.

그래서 저는 다시 물었습니다. 짜증이 난 저는 다음과 같이 GPT-3.5에게 말했습니다. "그런데 왜 나에게 공기저항이 없을 때 서로 다른 무게를 가진 물체 중 무거운 물체가 자유낙하하여 먼저 지면에 도달한다고 알려주는 거지?" 이에 대한 GPT-3.5는 "오해가 생길 수 있는 부분을 제공해서 죄송하다"라는 답변을 받게 되었습니다.

여러분! 인공지능이 답변을 해준다고 바로 믿지 마세요. 검증이 필수입니다. 그렇다면 다른 인공지능의 답변도 살펴보도록 하겠습니다.

 

 

GPT-4 와 Google Bard가 보여준 결과: AI도 교차검증이 필요합니다.

 

다행히도, 유료 버전을 사용하고 있기 때문에 같은 질문을 GPT-4에게 해보았습니다. GPT-3.5와는 달리 다른 답변을 받았습니다. 같은 회사에서 만든 것인데 무료와 유료 버전의 내용이 이렇게 다를 수 있는 것인지 의아했습니다. 저는 제가 경험한 내용을 이 글을 통해 공유하고자 합니다. 많은 분들이 chatGPT를 사용하여 글을 쓰거나 중요한 것을 물어보는 것으로 알고 있습니다.

하지만 오늘, 저는 당혹감을 느끼게 되었습니다. 더 중요한 것은 검증입니다. 현재 무료로 사용하고 있는 바드는 어떤 결과를 제공하는지 물어봤을 때, 정상적인 답변을 해주었습니다. 물론, GPT-4가 더 풍부한 내용을 설명해 주었습니다. chatGPT를 사용하시려면 보다 상위 버전을 사용하시는 것을 추천드리며, 구글 바드와 같은 질문을 던져서 비교해 보시길 권장합니다.

 

GPT-4가 답변한 내용
GPT-4의 답변
구글 바드가 답변한 내용
구글 바드가 답변한 내용

 

결론: 인공지능의 신뢰성과 필요성

 

오늘 제가 경험한 일은 인공지능이 제공하는 정보의 신뢰성에 대한 중요한 질문을 제기합니다. 이는 특히 공부나 연구와 같은 학문적 활동에서 매우 중요한 문제입니다. 인공지능은 다양한 분야에서 활용되지만, 그 답변이 항상 정확하거나 신뢰할 수 있는 것은 아니며, 이를 잘 인식하는 것이 중요합니다.

특히 기본적인 물리학적 원리에 대한 잘못된 답변은 그릇된 정보를 전달하고, 이는 교육적 측면에서 큰 문제가 될 수 있습니다. 인공지능은 계속해서 발전하고 있다고 믿고 있습니다. 아직 시작하는 단계이므로 이 시기에 우리가 이러한 문명의 이기를 이용하는 자세를 가져야 할 것 같습니다. 무료 버전인 GPT-3.5와 유료 버전인 GPT-4, 그리고 Google Bard와 같은 다른 인공지능의 답변은 서로 다르게 나타났습니다.

이는 사용자로 하여금 인공지능의 답변에 대한 신뢰성을 제고하게 만듭니다. 따라서 우리는 인공지능의 답변을 무조건적으로 믿지 않고, 항상 교차 검증하는 태도가 필요합니다. 아직은 인공지능도 완벽하지 않습니다. 그러므로 아직 인간의 학문적인 지식과 비교했을 때, 인공지능이 제공하는 정보에 대한 신뢰도는 그다지 높지 않습니다. 다만, 이런 경험을 통해 우리는 인공지능의 한계와 발전 가능성을 인식하게 되었으며, 이를 통해 더 나은 기술의 발전을 기대할 수 있습니다.

이러한 제경험은 또한 우리에게 인공지능을 무턱대고 신뢰하지 말고, 그 정보를 항상 확인하고 검증하는 것이 얼마나 중요한지를 깨닫게 하였습니다. 이는 인공지능이 우리 삶의 많은 부분에 깊게 녹아들어 가 있는 이 시대에서 매우 중요한 점이라고 생각합니다.

댓글