연구는 ChatGPT가 약에 관한 질문에 대해 부정확한 답을 제공했다고 밝혀
1 min read
이미지 출처:https://www.foxbusiness.com/technology/study-finds-chatgpt-provided-inaccurate-answers-medication-questions
새 연구에 따르면, ChatGPT는 약제 관련 질문에 대해 부정확한 답변을 제공하는 것으로 나타났다. Fox Business에 따르면, OpenAI가 개발한 ChatGPT는 약제 관련 질문에 대한 대화 기능을 제공하며, 많은 사람들이 의학적 정보를 찾기 위해 사용하고 있다.
연구 팀은 ChatGPT를 이용하여 다양한 약물 및 의학적 질문에 대한 답변을 확인하였다. 그러나 결과는 예상 밖으로 부정확했다. 대부분의 질문에서 ChatGPT는 부정확한 정보를 제공하거나 부적절한 답변을 제시하는 것으로 나타났다.
특히 연구는 보험 정보 및 약물의 부작용에 대한 질문에 대한 답변을 확인하였다. ChatGPT는 보험 요건이나 보험을 적용할 때의 비용에 대해 부정확한 정보를 제공하였으며, 몇몇 약물에 대한 부작용에 대해서도 정확하지 않은 정보를 제시하였다.
OpenAI는 이러한 부정확성을 개선하기 위해 연구 팀과 협력하여 ChatGPT의 정확성을 향상시킬 계획이다. 목표는 ChatGPT가 의학적인 질문에 대해 정확하고 신뢰할 수 있는 답변을 제공할 수 있는 수준에 이를 수 있도록 하는 것이다.
ChatGPT는 현재 약제 정보를 얻기 위해 많은 사람들에게 이용되고 있으며, 부정확한 정보로 인해 오해가 생길 수 있다. 따라서 ChatGPT를 사용하는 사용자들은 주의가 필요하며, 의학적인 질문에 대해서는 전문적인 의료 기관이나 의사에게 검증된 정보를 얻는 것이 중요하다.
ChatGPT의 개선은 앞으로 더욱 진전되어야 할 과제이며, 사용자들이 안전한 의료 정보를 얻을 수 있도록 주의가 필요하다. OpenAI와 연구 팀의 노력에 의해 ChatGPT의 정확성이 향상될 것으로 기대된다.