Nghề luật sư trong thế giới chuyển động không ngừng (Kỳ 3)

Nhìn ra thế giới, thông qua trình bày của các diễn giả, vấn đề trí tuệ nhân tạo (AI) đang mang đến những hiệu suất, hiệu quả không ngờ tới, nhưng cũng đối diện với những thách thức, rủi ro, thậm chí còn rất mơ hồ khi sử dụng nó, trong khi khuôn khổ pháp luật điều chỉnh ở phạm vi quốc tế và quốc gia vẫn đang còn nhiều tranh cãi, trong điều kiện có những khác biệt giữa các khu vực tài phán. Đó là cách thức AI tác động vào đời sống quốc gia và ngành nghề chuyên biệt, cũng như tính pháp lý và đạo đức khi sử dụng AI, cách tiếp cận việc tuân thủ ở những quốc gia có các quy định khác nhau về quyền riêng tư về dữ liệu và quy định về AI.

Kỳ III: Khi AI trở thành mối quan tâm đặc biệt, liệu sẽ thay thế con người và gieo rắc nỗi sợ hãi?

Vai trò của khu vực Châu Á - Thái Bình Dương trong kỷ nguyên AI tạo sinh (GenAI)…

Sau hai ngày nắng nhẹ, thời tiết khá dễ chịu, trời Toronto chuyển gió mạnh mặc dù không mưa, nhiệt độ xê dịch vào khoảng hơn 6 độ C. Để đến Trung tâm Metro nơi tổ chức Hội nghị thường niên IBA, chúng tôi mua vé cho 7 ngày và chọn cách đi tàu điện ngầm hai chặng rất nhanh và thuận tiện.

Luật sư điều hành và các diễn giả về chuyên đề “Vai trò của khu vực Châu Á - Thái Bình Dương trong kỷ nguyên AI tạo sinh” tổ chức sáng 03/11/2025.

Mặc dù chủ đề AI đã được đặt ra từ Hội nghị IBA năm 2023 tại Paris (Pháp) và Hội nghị LawAsia tại Việt Nam tháng 10 vừa qua, nhưng có thể nói, chủ đề này được làm “nóng” thật sự tại Toronto thông qua các hàng loạt các chuyên đề về sử tác động của AI trong hành nghề luật sư, nhất là đối với các luật sư trẻ hiện nay. Bản thân tôi có chút hiểu biết về công nghệ, tự xử lý hồ sơ với các phần mềm hỗ trợ, làm các slide bài giảng… nhưng quả thật chưa có nhiều ý niệm về sử dụng AI, nhìn AI như là điều xa lạ trong hành nghề của mình. Bởi lẽ, rốt cuộc thì liệu AI có thể thay thế luận lý của luật sư và giải đáp được những câu hỏi khó đối với từng phận người bị vướng vào vòng tố tụng?

Tuy nhiên, đến phiên thảo luận về chuyên đề “Vai trò của khu vực Châu Á - Thái Bình Dương trong kỷ nguyên AI tạo sinh” vào sáng 03/11/2025, tôi vỡ ra được nhiều điều và vì sao hiện nay chủ đề này được các luật sư quan tâm như vậy. Phiên thảo luận do nữ Luật sư ​Soo Hen Kim (Yulchon LLC, Seoul, Hàn Quốc), hiện là Phó Chủ tịch cấp cao Diễn đàn Khu vực Châu Á - Thái Bình Dương điều hành, với sự tham gia của các diễn giả: Anurag Bana (Hiệp hội Luật sư Quốc tế, London, Anh); Toby Bond (Bird & Bird LLP, London, Anh); Machiuanna Chu (Deacons, Hong Kong SAR) và ​Frédérique Horwood (Cohere, Toronto, Ontario, Canada).

Nhìn ra thế giới, thông qua trình bày của các diễn giả, vấn đề trí tuệ nhân tạo (AI) đang mang đến những hiệu suất, hiệu quả không ngờ tới, nhưng cũng đối diện với những thách thức, rủi ro, thậm chí còn rất mơ hồ khi sử dụng nó, trong khi khuôn khổ pháp luật điều chỉnh ở phạm vi quốc tế và quốc gia vẫn đang còn nhiều tranh cãi, trong điều kiện có những khác biệt giữa các khu vực tài phán. Đó là cách thức AI tác động vào đời sống quốc gia và ngành nghề chuyên biệt, cũng như tính pháp lý và đạo đức khi sử dụng AI, cách tiếp cận việc tuân thủ ở những quốc gia có các quy định khác nhau về quyền riêng tư về dữ liệu và quy định về AI.

Các đại biểu tham dự phiên thảo luận.

Các đại biểu tham dự phiên thảo luận.

Ở phạm vi vĩ mô, các nhà quản trị và hoạch định chính sách thường tập trung vào các trụ cột hoặc nguyên tắc trước, hoặc các tiêu chuẩn quốc tế đã được hài hòa, sau đó điều chỉnh hoặc thực hiện các thay đổi nhỏ cần thiết cho các khu vực tài phán khác nhau theo yêu cầu của luật pháp hiện hành. Thực tế hiện nay là khó có thể sử dụng một chương trình toàn cầu thống nhất mà không có bất kỳ khác biệt nào là sự riêng biệt của mỗi quốc gia. Theo các diễn giả, vấn đề khuôn khổ luật pháp về AI vẫn đang có những khác biệt giữa các quốc gia và còn rất mơ hồ. Vì vậy, nhiều văn bản pháp luật sẽ có các cách tiếp cận dựa trên đánh giá nhu cầu và rủi ro khác nhau, phân loại vai trò trong chuỗi giá trị AI, phân loại các hệ thống AI tùy thuộc vào loại trường hợp sử dụng. Trong đó nổi lên yêu cầu về tính minh bạch, từ nhà phát triển mô hình mục đích chung cho đến người dùng cuối chuỗi là một chủ đề phổ biến ở khu vực Châu Á - Thái Bình Dương (APAC). Bên cạnh việc tập trung xây dựng khuôn khổ pháp lý cho việc phát triển ngành công nghiệp AI - tức là không chỉ điều chỉnh rủi ro, mà còn tập trung vào những đòn bẩy nào để tăng cường áp dụng và đổi mới AI trong các quốc gia cả trong khu vực công và tư.

Ở nhiều quốc gia trong khu vực, không có sự ưu tiên duy nhất nào từ góc độ chính sách hoặc quy định, mà là sự kết hợp giữa sự tham gia chủ động vào các chính sách đang được tích cực tiến hành hoặc thảo luận về thực tế mỗi ngày. Ví dụ, các khuôn khổ pháp lý mới ở Nhật Bản và Hàn Quốc sau một số cuộc tham vấn ở EU về luật pháp hiện hành, trong khi công nghệ đang tiến rất xa và có nhiều thay đổi. Hàn Quốc có thể là một thị trường khá thú vị cho các doanh nghiệp AI, bởi vì mức độ kỳ vọng về quyền riêng tư và tỷ lệ sử dụng AI rất cao. Từ góc độ phát triển và triển khai công nghệ AI trên toàn cầu, nảy sinh những vấn đề rủi ro hợp đồng và quy định về việc sử dụng AI, đặc biệt là sự lo ngại về việc rò rỉ dữ liệu sang các sản phẩm mô hình ngôn ngữ lớn (LLM). Các nhà cung cấp đang đạt được một số giá trị mà chưa được định giá vào thỏa thuận nếu họ được phép sử dụng dữ liệu khách hàng để phát triển các sản phẩm và dịch vụ của mình. Từ góc độ AI tạo sinh (GenAI), mối lo ngại là nếu dữ liệu khách hàng đang được sử dụng và sau đó mô hình đó đang được cung cấp cho những người khác, dẫn đến khả năng dữ liệu đã được đào tạo bằng cách nào đó thoát ra hoặc bị rò rỉ và trở thành kiến thức công khai theo một cách nào đó.

Vấn đề kế tiếp liên quan đến sự phức tạp của việc tuân thủ quy định AI đang nổi lên, trong đó một hệ thống mục đích chung có thể bị khách hàng sử dụng cho mục đích thuộc danh mục rủi ro cao, chẳng hạn sử dụng AI trong tuyển dụng, sàng lọc nhân sự. ​Đây là một vấn đề phức tạp vì người dùng sử dụng nó trong công ty của họ, nhưng nhà cung cấp có thể phải tuân thủ các quy định về AI tác động cao, phải được giải quyết bằng hướng dẫn của pháp luật nhưng lại chưa ban hành hoặc phải được giải quyết theo hợp đồng hoặc kỹ thuật, nhất là những tranh chấp liên quan đến IP và AI.

Các luật sư tranh thủ ăn trưa tại chỗ và kết nối trao đổi nghề nghiệp.

Các luật sư tranh thủ ăn trưa tại chỗ và kết nối trao đổi nghề nghiệp.

Mặc dù có xu hướng hài hòa hóa luật bản quyền toàn cầu, vẫn có rất nhiều sắc thái và sự khác biệt giữa các nước trong khu vực, đặc biệt là trong các ngoại lệ bản quyền, với tiềm ẩn tranh chấp lớn nhất là việc sử dụng các tác phẩm có bản quyền trong các mô hình AI. Ở Singapore, từ năm 2021 có ngoại lệ rộng rãi cho hoạt động khai thác văn bản và dữ liệu, bao gồm yêu cầu truy cập hợp pháp và giới hạn việc chia sẻ bản sao. ​Nhật Bản có một ngoại lệ khác, rộng rãi để bao gồm các loại hình đào tạo AI nhất định. Ở Canada, vấn đề đang được quan tâm là xây dựng khung ngôn ngữ và tiêu chuẩn kỹ thuật trên cơ sở tham vấn về khuôn khổ luật AI.

Diễn giả Machiuanna Chu đến từ Hãng luật Deacons, Hong Kong bày tỏ không thích quan điểm cho rằng AI sẽ thay thế con người, vì điều này đang gieo rắc nỗi sợ hãi và sự phản kháng đối với việc chấp nhận AI trong công việc. Đây không phải là vấn đề thay thế mà là vấn đề con người cần được tái đào tạo hoặc trang bị kỹ năng cách sử dụng và áp dụng AI, xây dựng một khuôn khổ quản trị AI mạnh mẽ bằng cách cung cấp tính minh bạch, giải quyết đạo đức và sự công bằng, bảo mật dữ liệu và giám sát của con người. Càng minh bạch và giáo dục nhiều, công chúng sẽ càng tin tưởng và sẵn sàng học hỏi, đưa AI vào cuộc sống hàng ngày. Trong khi đó, Luật sư Toby Bond đến từ Bird & Bird LLP (London, Anh) chia sẻ một góc nhìn khi làm việc với khách hàng, ông thích ví von việc sử dụng AI có trách nhiệm giống như học lái xe ô tô, đó là cần học kỹ năng lái xe an toàn và có trách nhiệm.

Cái khó hiện nay là chúng ta phải chấp nhận thay đổi và thúc đẩy sự cộng tác giữa con người và AI, các khuôn khổ quy định phải vừa rất linh hoạt lại vừa nhất quán để cùng nhau xây dựng niềm tin và sự hợp tác giữa con người và công nghệ. Ở Hàn Quốc, với việc bảo vệ quyền riêng tư nhưng tỷ lệ chấp nhận AI rất cao, thách thức đối với các công ty AI là phải minh bạch tối đa nhưng không phá hỏng trải nghiệm người dùng. Một xu hướng nổi lên trong khu vực là khái niệm AI chủ quyền (sovereign AI), hay phát triển năng lực AI ở cấp quốc gia, nhằm xây dựng ngành công nghiệp nội địa. Trong tương lai, các vấn đề quyền riêng tư khó khăn hơn sẽ đến từ cá nhân hóa và bộ nhớ trong hệ thống AI, trong khi không gian AI đang phát triển rất nhanh. Trung Quốc đã ban hành các quy tắc đầu tiên về ghi nhãn nội dung do AI tạo ra vào tháng 9/2025 và tham vọng của Trung Quốc về việc áp dụng AI trong đời sống hàng ngày đạt 90% vào năm 2030. Các diễn giả nêu ra ví dụ ở một số quốc gia như Hàn Quốc và Việt Nam) đang tiếp cận theo Đạo luật AI và kinh nghiệm của EU, trong khi quy định của EU khá rộng và phức tạp.

Luật sư Đoàn công tác VBF đặt câu hỏi và thành nội dung được quan tâm về AI.

Luật sư Đoàn công tác VBF đặt câu hỏi và thành nội dung được quan tâm về AI.

Luật sư Phan Minh Hoàng đặt câu hỏi là ở một số quốc gia trong khu vực, đã xuất hiện những trường hợp cá nhân hoặc tổ chức, vì mục đích cạnh tranh hoặc có ý đồ xấu, đã sử dụng AI để giả danh luật sư và thành viên của các Công ty luật có uy tín nhằm lừa dối khách hàng và công chúng, đánh cắp thông tin mà các công ty luật cung cấp để sử dụng, gây thiệt hại nghiêm trọng đến các công ty luật, luật sư nói chung và giới luật nói riêng.

Diễn giả Toby Bond nhìn nhận thực tế nói trên và cho rằng không bao giờ được đánh giá thấp việc sử dụng công nghệ cho mục đích xấu hoặc phạm tội, luôn có những phần tử tội phạm rất chuyên nghiệp trong xã hội cố gắng sử dụng công nghệ theo mục đích đó. Hiện tại rất phổ biến khi các Công ty luật nhận được bảng câu hỏi từ khách hàng của họ, thực hiện theo thỏa thuận bảo mật, nhưng giờ đây với việc sử dụng công nghệ AI, khả năng rủi ro về thông tin khách hàng bị tiết lộ, dẫn đến rủi ro và thiệt hại có thể xảy ra về tài chính hoặc rủi ro uy tín. Bà Machiuanna Chu cho rằng AI chỉ là một công cụ kỹ thuật thuần túy, nhưng sau tất cả, như đề cập thực tế ở Hồng Kông, hiện chưa có một quy định bao trùm về AI. Do đó, cần phân biệt loại hành vi độc hại đó thuộc phạm vi luật cạnh tranh hoặc góc độ gian lận/xuyên tạc chung, phải được thẩm định chuyên sâu để tìm hiểu về nhà cung cấp, cơ chế quản trị rõ ràng, cách họ sử dụng dữ liệu và cách họ lưu trữ dữ liệu.

Trao đổi thêm về câu hỏi của Luật sư Phan Minh Hoàng, bà Frédérique Horwood đến từ Canada cho rằng, vấn đề sử dụng AI để giả mạo thông tin dữ liệu cá nhân như giọng nói, khuôn mặt (deepfake) nhằm mục đích lừa đảo đã được nhiều quốc gia đề cập trong quy định về AI. Ví dụ như Hoa Kỳ, luật pháp tập trung vào vấn đề cụ thể, bao gồm cả deepfake, vì đó là một sự phát triển rõ ràng không mong muốn và hành vi lạm dụng với mục đích xấu có thể nhanh chóng giải quyết thông qua luật pháp, mà không đến một cuộc tranh luận xã hội lớn. Trong khi đó, các quốc gia khác mới đang cố gắng áp dụng quy định AI mục đích chung, khi gặp trường hợp cụ thể rất khó thực hiện và không hiệu quả cho tất cả các ngành, dẫn đến làm chậm quá trình điều chỉnh, thay vì cách tiếp cận nhắm mục tiêu vào các vấn đề cụ thể như deepfake hoặc những vấn đề khác mà hầu hết mọi người đều đồng ý coi đó là hành vi tội phạm hoặc không mong muốn, cũng như trách nhiệm pháp lý của Công ty cung cấp các sản phẩm AI.

Chủ tịch IBA đương nhiệm Jaime Carey (trái) và Chủ tịch IBA kế nhiệm Claudio Visco tại cuộc họp Ủy ban BIC.

Chủ tịch IBA đương nhiệm Jaime Carey (trái) và Chủ tịch IBA kế nhiệm Claudio Visco tại cuộc họp Ủy ban BIC.

Đến thực tế phát triển kỹ năng kiện tụng và biện hộ trong thế giới AI hậu đại dịch nhìn từ góc độ xét xử

Tiếp nối chủ đề này là thực tế phát triển kỹ năng kiện tụng và biện bộ trong thế giới AI hậu đại dịch nhìn từ góc độ xét xử, thông qua phiên thảo luận đầu giờ chiều ngày 03/11/2025, với sự có mặt của các diễn giả: Ông Alipak Banerjee là chuyên gia về trọng tài thương mại quốc tế và hiệp ước đầu tư, kiện tụng thương mại và tội phạm “cổ cồn trắng” (white-collar litigation). Thẩm phán Liam Kennedy đến từ Tòa án Tối cao Ireland chuyên giải quyết các vấn đề Tài sản, Phá sản và Giám định, Khiếu nại về tiền thu được từ tội phạm, là một trong những thẩm phán được giao nhiệm vụ xây dựng quy tắc/hướng dẫn thực hành của Ireland cho việc sử dụng AI trong tố tụng. Ông Al Karim Lakhani, người phụ trách mảng công nghệ pháp lý tại TransPerfect Legal cho khu vực EMEA và Châu Á- Thái Bình Dương, phục vụ trong Lực lượng Đặc nhiệm AI Toàn cầu (Global AI Task Force) của IBA. Bà Lucinda Orr đến từ London, chuyên gia về kiện tụng thương mại quốc tế, gian lận dân sự, là giám định viên cho Tòa án Anh và xứ Wales, xử lý các vấn đề Công ước Hague. Bà Nicola Williams, chuyên gia về luật hình sự, từng giữ vai trò Thanh tra cấp cao và là Thẩm phán Tòa án Hoàng gia, Anh quốc.

Câu chuyện khởi đầu phiên thảo luận được đề cập đến là “Sự cố Avatar ở Tòa án”, khi trên kênh YouTube lan truyền một video từ tháng 4/2025 về một người tự tranh tụng (litigant in person) ở New York. Người này đã bắt đầu kháng cáo trước năm thẩm phán Tòa phúc thẩm bằng cách sử dụng một hình đại diện (avatar) thay mặt mình trình bày. Sự lan truyền Video này rất mạnh mẽ bởi có chi tiết vị chủ tọa phiên tòa khi đó quát lên yêu cầu "tắt ngay!". Thực tế ngay sau đó, Thẩm phán nhanh chóng nhận ra đó là một chiêu trò hay một trò quảng cáo của người tự tranh tụng nhằm thu hút sự chú ý cho công nghệ avatar của mình. Câu chuyện này đặt ra câu hỏi, có phải đã đến lúc hình đại diện AI ra tòa, nó có đe dọa công việc của tất cả các luật sư hay không? Có khi nào sẽ có AI điều hành phiên tòa xét xử các vụ án?

Luật sư điều hành và các diễn giả với chuyên đề “Phát triển kỹ năng kiện tụng và biện bộ trong thế giới AI hậu đại dịch nhìn từ góc độ xét xử”.

Luật sư điều hành và các diễn giả với chuyên đề “Phát triển kỹ năng kiện tụng và biện bộ trong thế giới AI hậu đại dịch nhìn từ góc độ xét xử”.

Ông Al Karim Lakhani cho rằng, AI là một loại trí tuệ nhân tạo, cố gắng mô phỏng trí tuệ con người bằng cách phát hiện các khuôn mẫu, đưa ra dự đoán và tạo ra phản hồi dựa trên xác suất. Từ “mô phỏng” là rất quan trọng vì AI xử lý dữ liệu để đoán câu trả lời có khả năng xảy ra nhất. Ngoài các hình thức AI đơn giản (như chuyển giọng nói thành văn bản, dịch máy, khám phá điện tử và mã hóa dự đoán) đã tồn tại từ lâu trong lĩnh vực pháp lý, AI tạo sinh (GenAI) đã thực sự soạn thảo, tạo ra nội dung như một luật sư hoặc cố vấn cấp dưới. Tốc độ phát triển của GenAI đang thúc đẩy và hỗ trợ luật sư nhanh hơn bao giờ hết, số liệu thống kê cho thấy 80% chuyên gia pháp lý ở Anh tin rằng nó sẽ có tác động chuyển đổi công việc của họ trong 5 năm tới, 50% luật sư đã tiết kiệm được 1-5 giờ làm việc mỗi tuần (tương đương 260 giờ có thể tính phí mỗi năm).

Tuy nhiên, như Sir Geoffrey Vos, Master of the Rolls (người đứng đầu ngành Tư pháp Dân sự Anh và xứ Wales) đã đề cập, AI thật ra chỉ là một công cụ. Trong tay người phù hợp, nó rất hữu ích nhưng trong tay kẻ xấu, nó cực kỳ nguy hiểm. Diễn giả Lucinda Orr đề cập đến một thực tế là khách hàng đang sử dụng AI để kiểm tra công việc của luật sư với yêu cầu hiệu suất cao hơn. Các công cụ như Copilot, Nexus Plus AI, Harvey được dùng để tóm tắt sự kiện, biên niên sử và soạn thảo. Thẩm phán Mr. Justice Birss (người Anh đầu tiên thừa nhận dùng AI để soạn một phần bản án) đã nói: "Quý vị có thể dùng AI để tóm tắt, nhưng chỉ khi quý vị đã đọc tài liệu đó", cần kiểm tra lại mọi thứ, bởi AI có thể làm tốt phần thủ tục hoặc tóm tắt tranh luận, nhưng khi nói đến luận lý, vẫn cần có thần thái của con người.

Các tòa nhà bên hông Trung tâm Hội nghị Metro.

Các tòa nhà bên hông Trung tâm Hội nghị Metro.

Trong lĩnh vực tư pháp, các diễn giả cho rằng GenAI không nên được sử dụng trong các lĩnh vực như tạo bằng chứng hoặc soạn thảo bản tuyên thệ, nếu AI đưa ra gợi ý và trích dẫn, cần phải kiểm tra thực tế các trích dẫn đó vì nếu không kiểm tra, hậu quả sẽ rất nghiêm trọng. Trong vụ án Haringey, Thẩm phán Liam Kennedy đến từ Tòa án tối cao Ireland viện dẫn, cho biết thực tế có một luật sư tập sự đã dùng AI để giải quyết một vấn đề chưa từng có tiền lệ và nhận được một án lệ bịa đặt. Thẩm phán đã cho rằng lập luận AI đưa ra là hay, nhưng việc sử dụng án lệ giả mạo là không thể chấp nhận và luật sư đó bị điều tra kỷ luật. Đây là một vấn đề giám sát và trách nhiệm cá nhân. Diễn giả Lucinda Orr bổ sung trong vụ án Haringey, luật sư tập sự và người hướng dẫn sau đó đều bị phạt vì không giám sát luật sư tập sự đúng cách và không cấp cho người này quyền truy cập vào các công cụ pháp lý cần thiết.

Vấn đề đặt ra tại phiên thảo luận là sử dụng AI vào việc gì, ai kiểm soát và có sử dụng nó một cách có trách nhiệm hay không? Đa số các trường hợp lạm dụng AI được nhìn thấy là trong các vụ án nhập cư, nơi luật sư dùng ChatGPT và đưa ra các án lệ không hề tồn tại. Để sử dụng AI, cần biết cách sử dụng nó, biết cách đặt câu hỏi đúng như là một kỹ năng quan trọng. Ông Al Karim Lakhani cho biết OpenAI đã cập nhật điều khoản dịch vụ để cấm sử dụng các dịch vụ của họ nhằm can thiệp vào khả năng tiếp cận các dịch vụ quan trọng, bao gồm tự động hóa các quyết định có rủi ro cao trong các lĩnh vực nhạy cảm mà không có sự xem xét của con người như pháp lý, y tế hoặc dịch vụ chính phủ thiết yếu. Điều này cho thấy họ đã nhận ra vấn đề khi người không chuyên nghiệp sử dụng AI trong các vụ án.

Diễn giả Morton Herscherfer đến từ Australia cho biết, ở Australia có tám bang và lãnh thổ, có Tòa án Liên bang, Tòa án Tối cao và nhiều Tòa án chuyên biệt, nên có rất nhiều cơ hội để soạn thảo hướng dẫn về AI. New South Wales là bang lớn nhất đã đi tiên phong và mạnh mẽ, ban hành một văn bản hướng dẫn thực hành rất chi tiết vào cuối năm 2024, quy định chính xác những gì luật sư và thẩm phán có thể và không thể làm với GenAI. Bang Victoria và Queensland đã đưa ra các hướng dẫn tương tự nhưng ít cứng rắn hơn. Bang Victoria khuyến nghị luật sư nên sử dụng với sự "thận trọng đặc biệt", còn bang Queensland đề nghị "sử dụng GenAI có trách nhiệm". Còn Tòa án Liên bang vẫn chưa hoàn thiện quan điểm, theo kiểu "chờ đợi và quan sát", bởi sự rủi ro khi ban hành quy định quá chi tiết có thể kìm hãm sự phát triển của công nghệ có lợi cho người tranh tụng.

Phiên họp của Hội đồng các vấn đề của Đoàn luật sư (BIC) vào chiều ngày 03/11/2025.

Phiên họp của Hội đồng các vấn đề của Đoàn luật sư (BIC) vào chiều ngày 03/11/2025.

Bà Nicola Williams đến từ Anh và xứ Wales đề cập do sự phát triển quá nhanh, Tòa án đã có nhiều hướng dẫn, nhấn mạnh người đứng tên trên bản đệ trình phải chịu hoàn toàn trách nhiệm. Bất kể vấn đề (do AI hay do nhân viên cấp dưới soạn thảo), người chịu trách nhiệm sẽ bị xử phạt và chịu trách nhiệm về chi phí. Vấn đề khá lý thú là hiện nay, ở Anh quốc vẫn đang tranh luận về việc có nên yêu cầu các bên tiết lộ việc sử dụng AI hay không. Quan điểm cá nhân của diễn giả là không thấy cần thiết, vì luật sư phải đảm bảo sản phẩm cuối cùng trình trước Tòa là toàn diện, chính xác và trung thực, còn cách họ đạt được kết quả đó ít quan trọng hơn và AI không thể thay thế lý luận tư pháp được.

Có một rủi ro tiềm tàng về sự không đồng bộ ngay ở các nước phát triển khi các Hãng luật lớn sử dụng các công cụ AI khác nhau (như Lexus AI, Harvey) so với các Thẩm phán sử dụng các công cụ AI khác (như Copilot) để kiểm tra trích dẫn và tóm tắt bản án là dạng công việc tẻ nhạt. Thực tế ở Anh quốc, các hãng luật lớn có nhiều tiền hơn có thể đầu tư vào công nghệ tiên tiến so với hệ thống Tòa án, điều này có thể dẫn đến bất bình đẳng về phương tiện trong tranh tụng. Tuy nhiên, tại Ấn Độ, Chính phủ đã quyết định không điều chỉnh AI ở giai đoạn này mà áp dụng phương pháp "đọc và quan sát". Họ sẽ truy cứu trách nhiệm những tác nhân xấu nhưng sẽ không ban hành quy định, vì đây là một lĩnh vực đang phát triển rất nhanh và sẽ tiếp tục phát triển khi công nghệ tiến hóa, hàng ngày có nhiều Công ty AI mới thành lập ở Bangalore.

Vấn đề đặt ra là chúng ta có thể sử dụng AI một cách có trách nhiệm khi hiểu rõ mình đang làm gì, bởi thực tế đã có nhiều thông tin sai lệch do sử dụng ChatGPT một cách bừa bãi, không thể phân biệt được nó xác thực đến mức độ nào. Sẽ rất an tâm nếu ai đó đã sử dụng một sản phẩm AI để phân tích một vấn đề pháp lý và đưa ra được một lập luận pháp lý tốt, và họ đã kiểm tra các trích dẫn là đúng. Ông Al Karim Lakhani, phục vụ trong Lực lượng Đặc nhiệm AI Toàn cầu (Global AI Task Force) của IBA kể về một thẩm phán Tòa án Liên bang thụ lý một vụ việc tranh chấp giữa một công ty danh tiếng được đại diện bởi một Hãng luật lớn, đối đầu với hai người đàn ông điều hành một doanh nghiệp nhỏ tự đại diện tại phiên tòa. Công ty này kiện hai người đàn ông, cáo buộc họ rời công ty và đánh cắp khách hàng và công nghệ, được ví như câu chuyện “David và Goliath”, bởi vì công ty lớn có một Hãng luật lớn, họ tự tin đến mức họ sẽ thắng, nên chỉ cử một luật sư rất trẻ, thiếu kinh nghiệm đến Tòa để xử lý.

Hai người đàn ông tự đại diện sử dụng ChatGPT ngay tại phòng xử án, họ mở laptop và thực sự đang gõ vào bàn phím. Thẩm phán hỏi: “Các anh đang sử dụng ChatGPT phải không?” và họ nói, “vâng”. Sau đó thẩm phán đã giải thích những gì họ có thể và không thể làm, thực tế họ không làm gì sai. Hai người đàn ông cuối cùng đã thắng kiện, chỉ bằng cách hỏi ChatGPT, kiểu như: “Bây giờ tôi phải nói gì?”. Phần hài hước nhất là luật sư trẻ bên Hãng luật lớn luống cuống liên tục phản đối, nhưng thẩm phán nói: “Luật sư dựa trên cơ sở nào? Phản đối điều gì?” và luật sư này phải thừa nhận “họ đang làm tốt hơn tôi”!

Điều có thể rút ra là nếu ai đó đang sử dụng AI và được sử dụng thực sự tốt, không thể biết trừ khi có một sự vi phạm, thì vấn đề còn lại là chính là vấn đề đạo đức. Khi phát hiện ra rằng ai đó đã lạm dụng AI, nếu là luật sư thì có thể báo cáo họ lên Ban Tiêu chuẩn Luật sư (Bar Standards Board) hoặc Cơ quan Quản lý Luật sư (Solicitors Regulation Authority), nhưng nếu một bên tự đại diện đang lạm dụng nó vì không đủ khả năng thuê luật sư, họ nghĩ rằng họ sẽ cân bằng sân chơi bằng cách sử dụng ChatGPT, loại rẻ nhất mà họ có thể sử dụng.

Đường phố Toronto trước hoàng hôn.

Đường phố Toronto trước hoàng hôn.

Những thông tin từ các phiên thảo luận nói trên đang trở thành chủ đề nóng tại Hội nghị thường niên IBA lần này, đến mức tại phiên họp của Ủy ban các vấn đề Đoàn Luật sư (BIC) mà chúng tôi tham dự cuối giờ chiều cùng ngày, ông Steven Richman, Chủ tịch Ủy ban cho biết trong kế hoạch và bốn Nhóm công tác của BIC, có nhóm chuyên về AI. Mục tiêu là xây dựng các sản phẩm, mở rộng phạm vi ra ngoài các khu vực tài phán khác nhau và xem các Hiệp hội luật sư khác nhau đang xử lý vấn đề như thế nào để hướng dẫn hay cung cấp thực tiễn tốt nhất về AI, từ đó xem xét có cần sửa đổi Quy tắc mẫu về đạo đức nghề nghiệp của IBA hay không.

Khi bước ra khỏi Trung tâm Metro sau 03 phiên thảo luận kéo dài từ sáng đến chiều, nhìn ra đường phố Torondo dưới ánh đèn chạng vạng khi hoàng hôn vừa đến, bước chân của tôi như trùng xuống, bất chợt nhìn những chiếc lá phong màu vàng xao xác rời cành trong những cơn gió bắt đầu thổi mạnh…

Nguồn: Luật sư, Tiến sĩ PHAN TRUNG HOÀI

Phó Chủ tịch Liên đoàn Luật sư Việt Nam

Bài viết liên quan

Nghề luật sư trong thế giới chuyển động không ngừng

Nghề luật sư trong thế giới chuyển động không ngừng

Đã có dịp nhiều lần tham gia Hội nghị thường niên của Hiệp hội luật sư một số quốc gia và IBA, sau hai chuyến bay trên trời tổng cộng khoảng 21 giờ (không kể thời gian transit), những háo hức thuở ban đầu dường như không còn nữa. Trước chuyến bay chỉ vài giờ, một khách hàng của tôi bị vướng vào vòng tố tụng sau những tranh chấp về kinh tế kéo dài, mặc dù đã biết tôi phải vắng mặt do lịch trình đã định trước nhưng khiến tôi nặng lòng, suy nghĩ rất nhiều…

Toà án Singapore tuyên Tập đoàn PVN thắng kiện nhà thầu nước ngoài

Toà án Singapore tuyên Tập đoàn PVN thắng kiện nhà thầu nước ngoài

Tập đoàn Công nghiệp - Năng lượng Quốc gia Việt Nam (PVN) đã thắng vụ kiện phúc thẩm với nhà thầu Nga trước Tòa Phúc thẩm Singapore, không phải trả hơn 530 triệu USD.