Tính phổ cập của ChatGPT tiếp tục lan rộng khi ngày càng đông đảo người lao động Mỹ dần dần đưa công cụ này vào dùng cho các công việc cơ bản thường ngày, theo Reuters báo cáo hôm 11/8, đồng thời chỉ ra những lo ngại đã khiến các nhà tuyển dụng như Microsoft và Google tìm cách hạn chế dùng chúng.

shutterstock 2250750533
(Nguồn: HappyBall3692/ Shutterstock)

Các công ty trên toàn thế giới đang xem xét cách tận dụng tốt nhất ChatGPT, một chương trình chatbot sử dụng trí tuệ nhân tạo (AI) tổng quát để tổ chức các cuộc trò chuyện với người dùng và trả lời vô số lời nhắc (câu hỏi). Tuy nhiên, các công ty và công ty bảo mật đã đưa ra quan ngại rằng cách làm này có thể dẫn đến rò rỉ tài sản trí tuệ và chiến lược.

Các ví dụ điển hình về những người sử dụng ChatGPT để hỗ trợ công việc hàng ngày của họ bao gồm soạn thảo email, tóm tắt tài liệu và trợ giúp viết báo cáo hay tóm tắt cho các nghiên cứu sơ bộ.

Khoảng 28% số người được hỏi trong cuộc thăm dò trực tuyến của Reuters/Ipsos về trí tuệ nhân tạo (AI) từ ngày 11 – 17/7 cho biết họ thường xuyên sử dụng ChatGPT tại nơi làm việc, trong khi chỉ 22% cho biết chủ của họ thẳng thắn cho phép dùng các công cụ bên ngoài tựa như ChatGPT.

Cuộc thăm dò ý kiến ​​của Reuters/Ipsos đối với 2.625 người trưởng thành trên khắp Hoa Kỳ với độ tin cậy và thước đo độ chính xác, là khoảng 2 điểm phần trăm.

Khoảng 10% trong số những người được hỏi cho biết sếp của họ đã cấm một cách rõ ràng các công cụ AI bên ngoài công ty, trong khi khoảng 25% chưa rõ ràng liệu công ty của họ có cho phép họ dùng công nghệ này hay không.

ChatGPT đã trở thành ứng dụng phát triển nhanh nhất trong lịch sử sau khi ra mắt vào tháng 11. Nó đã tạo ra cả sự phấn khích và báo động, khiến nhà phát triển OpenAI của nó xung đột với các cơ quan quản lý, đặc biệt là ở châu Âu , nơi việc thu thập số liệu hàng loạt của công ty đã vấp phải sự chỉ trích từ các cơ quan giám sát quyền riêng tư.

Các nhà nghiên cứu phát hiện ra rằng trí tuệ nhân tạo AI có thể tái tạo số liệu mà nó hấp thụ trong quá trình đào tạo, tạo ra rủi ro tiềm ẩn đối với thông tin độc quyền.

Ví như bản đánh giá nhân sự có thể bị rò rỉ nếu nó được tạo ra nhờ ChatGPT. Chẳng hạn bạn nộp đơn tuyển dụng ở công ty A. Công ty này trong quá trình viết bản phân tích năng lực cùng ưu điểm và nhược điểm của bạn đã dùng ChatGPT, thế thì tên, địa chỉ cùng tất cả các đánh giá đó được ChatGPT học, và nó đã biết về bạn. Từ đó, có rủi ro rằng người khác có thể thông qua ChatGPT mà biết được về bạn, thông qua cách hỏi ChatGPT một cách khéo léo.

Hoặc ví như bạn lập chương trình cho công ty của bạn và sử dụng ChatGPT giúp viết mã code. Nhưng khi bạn đưa các đoạn mã cho ChatGPT yêu cầu giúp đỡ, thì có thể trong đó chứa các thông tin độc quyền của công ty, hoặc các số liệu nhạy cảm. Bạn không thể biết được liệu ChatGPT sẽ bảo mật thông tin đó cho bạn hay không.

Ben King, phó chủ tịch phụ trách niềm tin của khách hàng tại công ty bảo mật doanh nghiệp Okta tin rằng “Khi người ta dùng dịch vụ của AI tổng quát, thì họ không hiểu cách số liệu được [AI] dùng thế nào. Đối với các doanh nghiệp, điều này rất quan trọng, bởi vì người dùng không có hợp đồng [với các điều khoản như bảo mật] với nhiều AI —do chúng là dịch vụ miễn phí— nên các công ty trong quy trình đánh giá thông thường của mình phải tính đến các nhân tố rủi ro này.”

OpenAI từ chối bình luận khi được hỏi về tác động gì khi nhân viên các doanh nghiệp dùng ChatGPT. Nhưng OpenAI đã nhấn mạnh trong một bài đăng trên blog của công ty gần đây đảm bảo với các đối tác của công ty rằng số liệu của họ sẽ không được sử dụng để huấn luyện cho chatbot thêm nữa, trừ khi có được sự cho phép rõ ràng.

Khi mọi người sử dụng Bard của Google, nó sẽ thu thập số liệu như văn bản, vị trí và thông tin sử dụng khác. Công ty cho phép người dùng xóa hoạt động trước đây khỏi tài khoản của họ và yêu cầu xóa nội dung được đưa vào AI. 

Google từ chối bình luận khi được hỏi thêm chi tiết.

Microsoft đã không trả lời ngay lập tức yêu cầu bình luận.

“Các tác vụ vô hại”

Một nhân viên của Tinder có trụ sở tại Hoa Kỳ cho hay các nhân viên khi dùng ứng dụng hẹn hò Tinder đã sử dụng ChatGPT cho “các tác vụ vô hại” như viết email mặc dù công ty không chính thức cho phép điều đó.

“Đó là những email thông thường. Rất không quan trọng, chẳng hạn như lịch mời vui nhộn cho các sự kiện của nhóm, email chia tay khi ai đó rời đi… Chúng tôi cũng sử dụng nó cho nghiên cứu chung,” nhân viên này nói, nhưng giấu tên khi trả lời phóng viên.

Nhân viên này kể rằng Tinder có “quy tắc cấm ChatGPT” nhưng nhân viên đó vẫn sử dụng nó theo “cách chung chung không tiết lộ bất cứ điều gì về việc chúng tôi ở Tinder.”

Reuters không thể xác nhận một cách độc lập cách các nhân viên tại Tinder đang sử dụng ChatGPT. Tinder cho biết họ cung cấp “hướng dẫn thường xuyên cho nhân viên về các phương pháp bảo mật và số liệu tốt nhất.”

Vào tháng 5, Samsung Electronics đã cấm nhân viên trên toàn cầu sử dụng ChatGPT và các công cụ AI tương tự sau khi phát hiện ra một nhân viên đã tải mã chương trình nhạy cảm —tài sản của hãng— lên ChatGPT.

“Chúng tôi đang xem xét các biện pháp để tạo ra một môi trường an toàn cho việc sử dụng AI tổng quát nhằm nâng cao năng suất và hiệu quả của nhân viên,” Samsung cho biết trong một tuyên bố vào ngày 3/8.

“Tuy nhiên, trước khi có biện pháp, thì chúng tôi tạm thời hạn chế việc sử dụng AI tổng quát thông qua các thiết bị của công ty.”

Reuters đã báo cáo vào tháng 6 rằng Alphabet (công ty sở hữu Google) đã cảnh báo nhân viên về cách họ sử dụng chatbot, kể cả Bard của chính Google, mặc dù đang tiến hành tiếp thị chương trình Bard này trên toàn cầu.

Cấm bao trùm

Một số công ty nói với Reuters rằng họ đang sử dụng ChatGPT và các nền tảng tương tự, đồng thời lưu ý đến vấn đề bảo mật.

Người phát ngôn của Coca-Cola tại Atlanta, Georgia nói: “Chúng tôi đã bắt đầu thử nghiệm và tìm hiểu về cách AI có thể nâng cao hiệu quả hoạt động,” đồng thời khẳng định rằng thêm rằng số liệu vẫn nằm trong tường lửa của hãng.

Người phát ngôn chia sẻ: “Trong nội bộ, gần đây chúng tôi đã ra mắt phiên bản doanh nghiệp ChatGPT của riêng Coca-Cola để tăng năng suất,” đồng thời cho biết thêm rằng Coca-Cola có kế hoạch sử dụng AI để cải thiện hiệu quả và năng suất của các nhóm của mình.

Trong khi đó, Giám đốc tài chính của Tate & Lyle, Dawn Allen, nói với Reuters rằng nhà sản xuất nguyên liệu toàn cầu này đang thử nghiệm ChatGPT, và “đã tìm ra cách sử dụng nó một cách an toàn.”

“Chúng tôi có các nhóm khác nhau quyết định cách họ muốn sử dụng nó thông qua một loạt thử nghiệm. Chúng tôi có nên sử dụng nó trong quan hệ với nhà đầu tư không? Chúng tôi có nên sử dụng nó trong quản lý tri thức không? Chúng tôi có thể sử dụng nó như thế nào để thực hiện các nhiệm vụ hiệu quả hơn?”

Một số nhân viên nói rằng họ hoàn toàn không thể truy cập nền tảng này trên máy tính của công ty.

“Nó hoàn toàn bị cấm trên mạng văn phòng, giống như nó không hoạt động,” một nhân viên của Procter & Gamble nói với Reuters, người muốn giấu tên vì họ không được phép nói chuyện với báo chí.

P&G từ chối bình luận. Reuters không thể xác nhận một cách độc lập liệu nhân viên tại P&G có thể sử dụng ChatGPT hay không.

Paul Lewis, giám đốc an ninh thông tin của công ty an ninh mạng Nominet, cho biết các công ty đã đúng khi cảnh giác.

“Mọi người đều được hưởng lợi từ khả năng gia tăng đó, nhưng thông tin không hoàn toàn bảo mật, và nó có thể bị dùng cách nào đó để lôi ra,” ông nói, đồng thời trích dẫn “cách hỏi độc hại [các AI]” có thể được sử dụng để khiến các chatbot AI tiết lộ thông tin.

“Chưa có đảm bảo để cấm bao trùm, và chúng ta cần phải thực hiện cẩn thận,” ông Lewis nói.

Nhật Tân