Theo CNBC, AI đang thẩm thấu vào công sở và các giám đốc an toàn thông tin cần phải tiếp cận công nghệ này một cách cẩn trọng, chuẩn bị sẵn biện pháp phòng vệ.
Công nghệ đứng sau GPT là mô hình ngôn ngữ lớn (LLM). Không phải công ty nào cũng sở hữu GPT riêng, vì thế cần phải giám sát cách nhân viên sử dụng nó.
ChatGPT ngày càng được nhân viên ưa chuộng. (Nguồn: CNBC) |
Michael Chui, đối tác tại Viện McKinsey Global, nhận định mọi người sẽ dùng AI tạo sinh nếu cảm thấy nó hữu dụng. Ông so sánh việc đó như dùng máy tính hay điện thoại trong công việc.
Ngay cả khi bị cấm đoán, nhân viên vẫn sẽ lén lút tìm những cách khác nhau để tận dụng. Trong lịch sử, đã có nhiều công nghệ hấp dẫn đến mức mọi người sẵn sàng trả giá để được dùng. Chẳng hạn, họ mua điện thoại di động trước khi doanh nghiệp cung cấp thiết bị cá nhân cho họ, theo Chui.
Các giám đốc an toàn thông tin, vốn đã phải đối phó với nguy cơ tấn công mạng, nay có thêm một nỗi lo khác với AI và GPT.
Theo Chui, các công ty có thể xin cấp phép sử dụng một nền tảng AI để theo dõi những gì nhân viên đang tiết lộ với chatbot và bảo đảm những thông tin họ chia sẻ được bảo vệ.
Chui nói: “Đứng ở vai trò doanh nghiệp, bạn không muốn nhân viên của mình nhắc (prompt) thông tin bí mật với chatbot công khai”.
Do đó, cần phải áp dụng các biện pháp kỹ thuật như phần mềm bản quyền và ký thỏa thuận pháp lý về việc dữ liệu của bạn được chuyển đi đâu.
Theo Sameer Penakalapati, CEO Ceipal, một lựa chọn an toàn là công ty phát triển GPT riêng hoặc thuê các nhà phát triển GPT làm phiên bản riêng.
Nếu tự tạo GPT, phần mềm sẽ có chính xác các thông tin mà doanh nghiệp mong muốn nhân viên được tiếp cận. Họ cũng có thể bảo vệ những thông tin mà nhân viên nạp vào. Dù chọn giải pháp nào, cần phải lưu ý về dữ liệu đầu vào của GPT.