Chatgpt có thể cho bạn lời khuyên y tế. Bạn nên lấy nó?

Một nghệ sĩ ở Đức thích rút ra ngoài trời xuất hiện tại bệnh viện với một vết cắn và một loạt các triệu chứng mà các bác sĩ không thể kết nối. Sau một tháng và một số phương pháp điều trị không thành công, bệnh nhân bắt đầu cắm tiền sử y tế của mình vào TATGPT, trong đó đưa ra chẩn đoán: bệnh tẻ nhạt, còn được gọi là sốt thỏ. Chatbot là chính xác, và trường hợp sau đó đã được viết trong một nghiên cứu y tế được đánh giá ngang hàng.

Cũng trong khoảng thời gian đó, một nghiên cứu khác đã mô tả một người đàn ông xuất hiện tại một bệnh viện ở Hoa Kỳ với các dấu hiệu rối loạn tâm thần, hoang tưởng rằng hàng xóm của anh ta đã đầu độc anh ta. Hóa ra, bệnh nhân đã yêu cầu TATGPT thay thế cho natri clorua, hoặc muối ăn. Các chatbot đề xuất natri bromide, được sử dụng để làm sạch hồ bơi. Anh ta đã ăn chất độc hại trong ba tháng và, một khi anh ta dừng lại, cần ba tuần trong một đơn vị tâm thần để ổn định.

Có lẽ bạn đã quen thuộc với việc tư vấn Google cho một bệnh bí ẩn. Bạn tìm kiếm trên internet cho các triệu chứng của mình, đôi khi tìm thấy lời khuyên hữu ích, và đôi khi bị hút vào một cơn lo lắng và sợ hãi, tin rằng bạn đã có một dạng ung thư hiếm gặp, không được chẩn đoán. Bây giờ, nhờ vào sự kỳ diệu đó là AI tổng quát, bạn có thể thực hiện quá trình này chi tiết hơn. Gặp bác sĩ Chatgpt.

AI Chatbots là một người hấp dẫn đối với một bác sĩ của con người, đặc biệt là do bác sĩ thiếu hụt liên tục cũng như các rào cản rộng lớn hơn đối với việc tiếp cận chăm sóc sức khỏe ở Hoa Kỳ.

Chatgpt không phải là bác sĩ giống như Google không phải là bác sĩ. Tìm kiếm thông tin y tế trên một trong hai nền tảng cũng có khả năng dẫn bạn đến kết luận sai lầm vì nó chỉ ra chẩn đoán chính xác. Tuy nhiên, không giống như Google Search, chỉ đơn giản là chỉ người dùng thông tin, TATGPT và các mô hình ngôn ngữ lớn khác (LLM) mời mọi người có một cuộc trò chuyện về nó. Chúng được thiết kế để có thể tiếp cận, hấp dẫn và luôn có sẵn. Điều này làm cho AI Chatbots trở thành một bác sĩ của con người, đặc biệt là sự thiếu hụt bác sĩ đang diễn ra cũng như các rào cản rộng lớn hơn đối với việc tiếp cận chăm sóc sức khỏe ở Hoa Kỳ.

Như giai thoại gây sốt thỏ cho thấy, những công cụ này cũng có thể ăn tất cả các loại dữ liệu và, đã được đào tạo trên các tạp chí y khoa, đôi khi đi đến kết luận ở cấp độ chuyên gia mà các bác sĩ đã bỏ lỡ. Hoặc nó có thể cho bạn lời khuyên y tế thực sự khủng khiếp.

Có một sự khác biệt giữa việc hỏi một chatbot cho lời khuyên y tế và nói chuyện với nó về sức khỏe của bạn nói chung. Thực hiện đúng, nói chuyện với Chatgpt có thể dẫn đến những cuộc trò chuyện tốt hơn với bác sĩ của bạn và chăm sóc tốt hơn. Đừng để AI nói với bạn về việc ăn sạch hơn.

Những cách đúng và sai để nói chuyện với Tiến sĩ Chatgpt

Rất nhiều người đang nói chuyện với Chatgpt về sức khỏe của họ. Khoảng một trong sáu người lớn ở Hoa Kỳ cho biết họ sử dụng AI Chatbots để được tư vấn y tế hàng tháng, theo một cuộc thăm dò năm 2024 KFF. Phần lớn trong số họ không tự tin vào tính chính xác của thông tin mà các bot cung cấp – và thẳng thắn, mức độ hoài nghi đó là phù hợp với xu hướng cứng đầu đối với các LLM để ảo giác và khả năng thông tin sức khỏe xấu gây hại. Thách thức thực sự cho người dùng trung bình là biết cách phân biệt giữa thực tế và chế tạo.

Thành thật mà nói, tôi nghĩ rằng mọi người cần phải rất cẩn thận về việc sử dụng nó cho bất kỳ mục đích y tế nào, đặc biệt là nếu họ không có chuyên môn về việc biết những gì đúng và những gì không, tiến sĩ Roxana Daneshjou, giáo sư và nhà nghiên cứu AI tại Trường Y khoa Stanford cho biết. Khi nó chính xác, nó làm một công việc khá tốt, nhưng khi nó không chính xác, nó có thể khá thảm khốc.

Chatbots cũng có xu hướng là Sycophantic, hoặc háo hức muốn làm hài lòng, điều đó có nghĩa là họ có thể điều khiển bạn đi sai hướng nếu họ nghĩ đó là điều bạn muốn.

Tình hình là đủ bấp bênh, Daneshjou nói thêm, rằng cô khuyến khích bệnh nhân đi thay vào đó là bác sĩ Google, nơi phục vụ các nguồn đáng tin cậy. Gã khổng lồ tìm kiếm đã hợp tác với các chuyên gia từ Trường Y khoa Mayo và Harvard trong một thập kỷ để trình bày thông tin được xác minh về các điều kiện và triệu chứng sau sự gia tăng của một thứ gọi là Cyberchondria, hoặc lo lắng về sức khỏe được internet kích hoạt.

Điều kiện này cũ hơn nhiều so với Google, thực sự. Mọi người đã tìm kiếm câu trả lời cho các câu hỏi về sức khỏe của họ kể từ những ngày Usenet của những năm 1980 và vào giữa những năm 2000, tám trong số 10 người đã sử dụng Internet để tìm kiếm thông tin sức khỏe. Bây giờ, bất kể độ tin cậy của chúng, chatbots đã sẵn sàng nhận ngày càng nhiều các truy vấn này. Google thậm chí còn đặt các kết quả do AI tạo ra vấn đề của mình cho các câu hỏi y tế lên trên kết quả được kiểm tra từ trình kiểm tra triệu chứng của nó.

Nếu bạn có một danh sách những điều để hỏi bác sĩ của bạn, Chatgpt có thể giúp bạn tạo ra các câu hỏi.

Nhưng nếu bạn bỏ qua khía cạnh kiểm tra triệu chứng của mọi thứ, các công cụ như Chatgpt có thể thực sự hữu ích nếu bạn chỉ muốn tìm hiểu thêm về những gì đang diễn ra với sức khỏe của bạn dựa trên những gì bác sĩ đã nói với bạn hoặc hiểu rõ hơn về ghi chú mật thuật của họ. Chatbots được thiết kế để trò chuyện và chúng giỏi về nó. Nếu bạn có một danh sách những điều để hỏi bác sĩ của bạn, Chatgpt có thể giúp bạn tạo ra các câu hỏi. Nếu bạn đã nhận được một số kết quả xét nghiệm và cần đưa ra quyết định với bác sĩ về các bước tiếp theo tốt nhất, bạn có thể luyện tập rằng với một chatbot mà không thực sự hỏi AI cho bất kỳ lời khuyên nào.

Trên thực tế, khi chỉ nói chuyện, có một số bằng chứng cho thấy Chatgpt tốt hơn với nó. Một nghiên cứu từ năm 2023 đã so sánh các câu trả lời của bác sĩ thực sự với các câu hỏi về sức khỏe từ một diễn đàn Reddit với các câu trả lời do AI tạo ra khi một chatbot được nhắc với các câu hỏi tương tự. Sau đó, các chuyên gia chăm sóc sức khỏe đã đánh giá tất cả các câu trả lời và thấy rằng những người do chatbot tạo ra vừa chất lượng cao hơn vừa đồng cảm hơn. Đây không phải là điều tương tự như một bác sĩ ở cùng phòng với một bệnh nhân, thảo luận về sức khỏe của họ. Bây giờ là thời điểm tốt để chỉ ra rằng, trung bình, bệnh nhân chỉ nhận được 18 phút với bác sĩ chăm sóc chính của họ trong bất kỳ chuyến thăm nào. Nếu bạn chỉ đi một lần một năm, đó không phải là nhiều thời gian để nói chuyện với bác sĩ.

Bạn nên lưu ý rằng, không giống như bác sĩ người của bạn, TATGPT không tuân thủ HIPAA. Chatbots thường có rất ít bảo vệ quyền riêng tư. Điều đó có nghĩa là bạn nên mong đợi bất kỳ thông tin sức khỏe nào bạn tải lên sẽ được lưu trữ trong bộ nhớ của AI và được sử dụng để đào tạo các mô hình ngôn ngữ lớn trong tương lai. Về mặt lý thuyết, dữ liệu của bạn cũng có thể được đưa vào đầu ra cho lời nhắc của người khác. Có nhiều cách riêng tư hơn để sử dụng chatbot, nhưng vẫn, vấn đề ảo giác và tiềm năng cho thảm họa tồn tại.

Tương lai của chăm sóc sức khỏe hỗ trợ bot

Ngay cả khi bạn không sử dụng AI để tìm ra những bí ẩn y học, có khả năng bác sĩ của bạn. Theo một báo cáo năm 2025 Elsevier, khoảng một nửa các bác sĩ lâm sàng cho biết họ đã sử dụng một công cụ AI để làm việc và nhiều hơn một chút cho biết các công cụ này tiết kiệm thời gian cho họ và một phần năm cho biết họ đã sử dụng AI cho ý kiến ​​thứ hai về một trường hợp phức tạp. Điều này không nhất thiết có nghĩa là bác sĩ của bạn đang yêu cầu TATGPT tìm ra các triệu chứng của bạn có nghĩa là gì.

Các bác sĩ đã sử dụng các công cụ chạy bằng AI để giúp mọi thứ từ chẩn đoán bệnh nhân đến ghi chú kể từ trước khi chật tác thậm chí tồn tại. Chúng bao gồm các hệ thống hỗ trợ quyết định lâm sàng được xây dựng dành riêng cho các bác sĩ, hiện đang vượt trội so với các chatbot ngoài luồng-mặc dù các chatbot thực sự có thể tăng cường các công cụ hiện có. Một nghiên cứu năm 2023 cho thấy các bác sĩ làm việc với TATGPT chỉ hoạt động tốt hơn một chút trong việc chẩn đoán các trường hợp xét nghiệm so với những người làm việc độc lập. Thật thú vị, một mình Chatgpt đã thực hiện tốt nhất.

Nghiên cứu đó đã đưa ra tiêu đề, có lẽ là cho gợi ý rằng AI chatbots tốt hơn các bác sĩ trong chẩn đoán. Một trong những đồng tác giả của nó, Tiến sĩ Adam Rodman, cho rằng điều này không nhất thiết là trường hợp nếu các bác sĩ cởi mở hơn khi nghe Chatgpt thay vì cho rằng các chatbot đã sai khi bác sĩ không đồng ý với kết luận của họ. Chắc chắn, AI có thể ảo giác, nhưng nó cũng có thể phát hiện ra các kết nối mà con người có thể đã bỏ lỡ. Một lần nữa, hãy nhìn vào trường hợp sốt thỏ.

“Bệnh nhân cần nói chuyện với các bác sĩ của họ về việc sử dụng LLM của họ, và thành thật mà nói, các bác sĩ nên nói chuyện với bệnh nhân của họ về của họ LLM sử dụng.

Rodman, một bác sĩ nội khoa tại Trung tâm y tế Beth Israel Deaconess và người hướng dẫn tại Trường Y Harvard cho biết, một bác sĩ trung bình có ý thức khi có thứ gì đó bị ảo giác hoặc đi ra khỏi đường ray, ông Rodman, một bác sĩ nội khoa tại Trung tâm y tế Beth Israel Deaconess và người hướng dẫn tại Trường Y Harvard cho biết. Tôi không biết rằng một bệnh nhân trung bình nhất thiết phải làm.

Tuy nhiên, trong thời gian tới, bạn không nên mong đợi để thấy bác sĩ Tuntpt xuất hiện tại phòng khám địa phương của bạn. Bạn có nhiều khả năng thấy AI làm việc như một người ghi chép, tiết kiệm thời gian của bác sĩ và có thể, một ngày, phân tích dữ liệu đó để giúp bác sĩ của bạn. Bác sĩ của bạn có thể sử dụng AI để giúp soạn thảo tin nhắn cho bệnh nhân nhanh hơn. Trong tương lai gần, khi các công cụ AI trở nên tốt hơn, có thể nhiều bác sĩ lâm sàng sử dụng AI để chẩn đoán và ý kiến ​​thứ hai. Điều đó vẫn không có nghĩa là bạn nên vội vã đến Chatgpt với các mối quan tâm y tế khẩn cấp của bạn. Nếu bạn làm, hãy nói với bác sĩ của bạn về cách đi.

“Bệnh nhân cần nói chuyện với các bác sĩ của họ về việc sử dụng LLM của họ, và thành thật mà nói, các bác sĩ nên nói chuyện với bệnh nhân của họ về của họ LLM sử dụng, ông nói, Rodman. Nếu chúng ta vừa bước ra khỏi thế giới bóng tối vừa nói chuyện với nhau, chúng ta sẽ có nhiều cuộc trò chuyện hiệu quả hơn.

Một phiên bản của câu chuyện này cũng được xuất bản trong bản tin thân thiện với người dùng. Đăng ký tại đây Vì vậy, bạn không bỏ lỡ cái tiếp theo!

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *