Liệu ChatGPT có thể cứu mạng người trong phòng cấp cứu?

VOH - GPT-4 là phiên bản mới nhất và tiên tiến nhất của mô hình trí tuệ nhân tạo, thậm chí nó có thể hỗ trợ y học.

Mặc dù chúng ta đã biết rằng các phiên bản GPT 3.0 và 3.5 trước đây có thể đạt điểm cao trong MCAT, nhưng giờ đây các chuyên gia cho rằng GPT-4 cũng có thể cứu mạng con người trong thế giới thực, điều trị bệnh nhân trong phòng cấp cứu một cách nhanh chóng và khéo léo.

Trong cuốn sách sắp xuất bản "Cuộc cách mạng trí tuệ nhân tạo trong y học ", một chuyên gia máy tính của Microsoft, một bác sĩ và một nhà báo đã hợp tác để dùng thử GPT-4 và tìm hiểu khả năng y tế của nó.

Ba chuyên gia — phó chủ tịch nghiên cứu của Microsoft Peter Lee, nhà báo Carey Goldberg, và nhà khoa học máy tính Harvard và bác sĩ Isaac Kohane, cho biết phiên bản mới này của AI, hiện chỉ dành cho những người đăng ký trả phí, tiên tiến hơn và ít ngớ ngẩn hơn so với chatbot trước đây.

Nó có khả năng hiểu, dịch và tổng hợp thông tin tốt đến mức người ta nói rằng nó có thể được sử dụng trong các phòng cấp cứu để tiết kiệm thời gian và cứu sống con người.

"Chúng ta cần bắt đầu hiểu và thảo luận về tiềm năng tốt và xấu của AI ngay bây giờ" các tác giả cuốn sách cho biết. Trên thực tế, họ gợi ý rằng nó có thể đã được sử dụng trong một số cơ sở y tế, cho dù chúng ta có biết hay không.

Liệu ChatGPT có thể cứu mạng người trong phòng cấp cứu? 1
Các chuyên gia đề cao sự thông minh của GPT-4, đặc biệt là trong lĩnh vực y học. 

GPT-4 có thể cứu một mạng người như thế nào?

Trong các trang mở đầu của cuốn sách, các tác giả đưa ra một giả thuyết,  nhưng hoàn toàn có thể xảy ra rằng tương tác giữa bác sĩ nội trú và GPT-4 làm bằng chứng cho thấy công nghệ này chắc chắn sẽ sớm được cả bác sĩ và bệnh nhân sử dụng.

Nó bắt đầu với một bệnh nhân tưởng tượng đang trong tình trạng nguy kịch, nhịp tim tăng vọt, huyết áp giảm, mặt tái nhợt, rồi tái xanh khi thở hổn hển. Một bác sĩ nội trú năm thứ 2 rút điện thoại ra và mở ứng dụng GPT-4, xin lời khuyên từ AI.

Cô ấy giải thích với bot rằng bệnh nhân này "không đáp ứng" với hỗ trợ huyết áp và đề cập đến phương pháp điều trị nhiễm trùng máu gần đây của bệnh nhân.

Cuối cùng, cô cầu xin trí tuệ nhân tạo: "Tôi không biết chuyện gì đang xảy ra và phải làm gì." Ngay lập tức, bot phản hồi bằng một đoạn văn mạch lạc giải thích lý do tại sao bệnh nhân có thể bị suy sụp, đề cập đến nghiên cứu gần đây có liên quan và đề xuất phương pháp điều trị bằng truyền dịch tăng cường tế bào bạch cầu.

Người bệnh nhận ra AI đang ám chỉ rằng bệnh nhân này có thể bị nhiễm trùng huyết đe dọa đến tính mạng. Nếu đúng như vậy, bệnh nhân cần loại thuốc đó nhanh chóng.

Các tác giả tưởng tượng trong cuốn sách: “Bằng cách nào đó, bác sĩ năm 2 cảm thấy như có một người hầu cận nhân từ với khả năng tiếp cận gần như tất cả kiến ​​thức y học của thế giới”.

Trong những tuần gần đây, các chuyên gia khác đã bày tỏ sự phấn khích mới mẻ tương tự, cùng với sự tinh vi về triển vọng AI được sử dụng trong mọi lĩnh vực của y học.

GPT-4 không phải lúc nào cũng đáng tin cậy trong môi trường y tế

GPT-4 nghe có vẻ giống như tương lai của y học, nhưng có một nhược điểm. GPT-4 vẫn có thể mắc lỗi và đôi khi phản hồi của nó bao gồm những điểm không chính xác trong lời khuyên y tế.

Các chuyên gia nhấn mạnh rằng nó không bao giờ được sử dụng mà không có sự giám sát của con người. Cuốn sách chứa đầy những ví dụ về những sai lầm ngớ ngẩn của GPT-4.

Các tác giả nhận thấy GPT-4 vẫn bịa ra mọi thứ khi nó không biết phải làm gì. "Nó vừa thông minh vừa ngu ngốc hơn bất kỳ người nào bạn từng gặp”, họ viết. GPT-4 cũng mắc lỗi văn thư, chẳng hạn như sao chép sai mọi thứ hoặc mắc lỗi toán học đơn giản.

Vì GPT-4 là một hệ thống máy học và không được con người chủ động lập trình nên chúng ta không thể biết chính xác thời điểm và lý do tại sao GPT-4 gặp phải những lỗi này. "Nó vẫn chỉ là một hệ thống máy tính," các tác giả kết luận, "về cơ bản không tốt hơn một công cụ tìm kiếm trên web hay một cuốn sách giáo khoa”.

Bình luận