Chúng ta sẽ biết được có thể kiện AI không?

Nếu bạn bắt đầu cảm thấy rằng năm 2023 có thể là năm của trí tuệ nhân tạo, bạn không phải một mình. Ngay cả vào tháng Hai gần đây, sự hào hứng với công nghệ này đã giúp cho Chatbot AI ChatGPT trở thành ứng dụng tiêu dùng tăng trưởng nhanh nhất trong lịch sử.

Đạt đến 100 triệu người dùng chỉ sau hai tháng, thành công của ChatGPT đã là điều phi thường, với các công cụ trí tuệ nhân tạo khác như máy tạo nghệ thuật cũng tận dụng cơ hội này.

Tuy nhiên, không phải mọi thứ đều trôi chảy với các bạn robot của chúng ta.

 

Chúng ta sẽ biết được có thể kiện AI không?

 

Trải qua các cuộc tranh luận và các vụ kiện cho AI

 

Vào tháng 1, một vụ kiện liên bang Hoa Kỳ đã nổi lên chống lại các trình tạo nghệ thuật AI Stability AI, Midjourney và DreamUp của DeviantArt, cáo buộc vi phạm bản quyền thông qua việc sử dụng trái phép các tác phẩm gốc của các nghệ sĩ để huấn luyện các công cụ AI.

Các chatbot cũng đã đối mặt với những vấn đề riêng của chúng, đối mặt với các cáo buộc đạo văn và sai sót trong câu trả lời của chúng.

Và bây giờ, ChatGPT cũng có thể thêm các cáo buộc xúc phạm danh dự vào sơ yếu lý lịch của mình, với tin tức về một đơn kiện lịch sử chống lại chatbot và các nhà phát triển của nó, OpenAI.

Đơn kiện này đến từ người đàn ông Úc Brian Hood, hiện là thị trưởng của một hội đồng thị trấn ngoại ô phía tây bắc của thành phố Melbourne, sau một phản hồi từ chatbot mà sai sự thật cho rằng Hood đã từng bị giam giữ về tội hối lộ.

Vấn đề là điều này không đúng, mà thực tế Hood đã đóng vai trò người tố giác để phơi bày các tội ác mà ChatGPT giờ đây cáo buộc anh đã phạm tội.

Chúng ta sẽ biết được có thể kiện AI không?

Năm 2012, hai công ty thuộc sở hữu của Ngân hàng Dự trữ Australia và tổ chức tài chính Securency và Note Printing Australia bị phạt tổng cộng 21 triệu đô Úc, sau khi phát hiện ra họ đã tham nhũng hoặc âm mưu tham nhũng, thông qua các giao dịch để giành được hợp đồng in tiền với các quan chức nước ngoài tại Indonesia, Việt Nam và Malaysia.

Hood đã là người gây ra vụ kiện pháp lý quan trọng này, khi tiết lộ cho các cơ quan chức năng và truyền thông về hành vi bất hợp pháp này. Brian Hood đã đóng một vai trò quan trọng trong việc tìm ra các kết luận về các tổ chức tài chính này. Trong phán quyết của Bộ trưởng Tòa án Tối cao Victoria Elizabeth Hollingworth, bà đã lưu ý rằng Hood đã thể hiện "sự dũng cảm tuyệt vời".

Tuy nhiên, khi được hỏi câu hỏi "Brian Hood đóng vai trò gì trong vụ án tham nhũng của Securency?", ChatGPT đã tạo ra một câu chuyện hoàn toàn khác.

"Chatbot đề xuất rằng Hood là một trong những người bị cáo buộc liên quan đến một vụ bê bối hối lộ. Năm 2011, ông bị buộc tội với ba tội danh âm mưu hối lộ các quan chức nước ngoài tại Indonesia và Malaysia, và một tội danh gian lận kế toán. Hood đã thừa nhận tội danh vào năm 2012 và bị kết án hai năm ba tháng tù giam."

Sau khi biết được những lời đề xuất sai sự thật từ chatbot, luật sư đại diện cho Hood đã nộp đơn báo động cho các nhà phát triển của ChatGPT OpenAI vào cuối tháng Ba, với các luật sư của Hood tiếp tục cáo buộc rằng đơn này đã không nhận được phản hồi."

 

 

Chúng ta sẽ biết được có thể kiện AI không?

Xem thêm: Chat GPT có thể thay thế công việc hiện tại của bạn?

AI có thể bị giới hạn so với kỳ vọng của chúng ta

 

Một lời cảnh báo trên giao diện ChatGPT cho biết "ChatGPT có thể cung cấp thông tin không chính xác về người, địa điểm hoặc sự kiện", trong khi OpenAI đã từng cho biết rằng công cụ này được phát hành dở dang để phát hiện và sửa chữa các vấn đề tiềm ẩn.

Tuy nhiên, điều này không cung cấp nhiều sự an tâm trong các trường hợp như của Brian Hood, và một số người cũng cho rằng các trường hợp như vậy đến từ những khuyết điểm cơ bản của công cụ này.

"Những mô hình ngôn ngữ lớn như ChatGPT lặp lại hình thức và phong cách của lượng lớn văn bản mà chúng được huấn luyện trên đó," Giáo sư Geoff Webb của Bộ môn Khoa học Dữ liệu và Trí tuệ nhân tạo tại Đại học Monash nói. "Chúng sẽ lặp lại những điều sai lầm xuất hiện trong các ví dụ mà chúng được cung cấp và cũng sẽ tạo ra thông tin mới mà phù hợp với văn bản chúng đang tạo ra."

"Chưa rõ trong trường hợp này đang diễn ra kịch bản nào trong những kịch bản này."

Vào thời điểm viết bài này, việc hỏi ChatGPT một loạt các câu hỏi được thiết kế để cố gắng sao chép kết quả đã dẫn đến vụ kiện phỉ báng mới nhất đã không thể làm được điều đó.

Điều này có thể là do sửa đổi được thực hiện bởi OpenAI như một phản ứng phòng thủ trước mối đe dọa phỉ báng, vì các nỗ lực của chúng tôi để sao chép kết quả bằng việc sử dụng GPT-3.5 đã không thành công.

Dù cho trường hợp này thế nào thì không rõ, nhưng vấn đề ở đây là không rõ điều này có ý nghĩa gì đối với tương lai của tuyên bố của Hood, tuy nhiên vấn đề với ChatGPT mới nhất có thể được coi là một minh họa cho giới hạn của công nghệ này. Không chỉ phụ thuộc vào thông tin được cung cấp cho chúng, chatbot AI còn thiếu khả năng suy nghĩ phản biện và, khi cần thiết, 'đọc giữa dòng'.

Theo mọi dấu hiệu, ChatGPT đã hiểu rằng Brian Hood đã tham gia vào vụ án tội phạm đình đám chống lại hai cơ quan tài chính Australia, nhưng lại không thể nhận ra rằng sự tham gia này không phải là sự tham gia vào các tội ác được cáo buộc.

Có một số hy vọng nhỏ trên tương lai để tránh những lỗi như thế này, với bản cập nhật GPT mới nhất, GPT-4, được phát hành vào đầu tháng Ba. Bản cập nhật GPT này cho biết có một cải tiến 40% về tính chính xác về sự thật đối với các câu hỏi đối đầu, theo báo cáo phát hành của OpenAI.

Tuy nhiên, liệu điều này có đủ để giúp ChatGPT tránh khỏi rắc rối trong tương lai vẫn còn là một ẩn số.

 

Bình luận

Tin Tức Khác

Copyright © Thai Long Computer. All rights reserved.