Thực tế cho thấy, đối tượng thông minh
càng tự chủ thì chúng càng ít được coi là
công cụ đơn giản trong tay các chủ thể
khác24 và việc quy định nghiêm ngặt quá
mức, mong đợi sự hoàn hảo thay vì có thể
chấp nhận những hành vi robot có thể không
khuyến khích các nhà sản xuất đầu tư tiền
vào việc đổi mới, chẳng hạn như xe tự lái,
máy bay không người lái và máy tự động25.
Do đó, việc ban hành các quy định thông
minh là rất cần thiết.
Trong khi các đối tượng thông minh
đang bắt chước công việc của con người,
một câu hỏi cũng được đặt ra là liệu robot
có được quyền kiện, bị kiện và cũng được
tham gia với tư cách là nhân chứng cho mục
đích chứng cứ hay không? Hiện tại không
thể kiện một robot vì chúng được coi là tài
sản. Các đối tượng thông minh không có tư
cách chủ thể pháp lý và chưa được sửa đổi
để có thể kiện hoặc bị kiện. Nếu robot gây
hại, bên bị thương phải kiện chủ nhân của
nó. Tuy nhiên, so sánh robot với các công
ty, các công ty cũng không được coi là các
thực thể pháp lý riêng biệt với chủ sở hữu
là con người trong một thời gian dài trong
lịch sử26. Tuy nhiên, theo thời gian, các nhà
lập pháp đã từ bỏ mô hình coi các công ty
chỉ là tài sản và trao cho chúng một tư cách
nhân tạo độc lập (pháp nhân) cho phép
chúng kiện và bị kiện. Do đó, đối với các
robot, nó sẽ cần phải được thiết lập tư cách
chủ thể như vậy
6 trang |
Chia sẻ: hachi492 | Ngày: 19/01/2022 | Lượt xem: 251 | Lượt tải: 0
Bạn đang xem nội dung tài liệu Trách nhiệm bồi thường thiệt hại trong kỷ nguyên trí tuệ nhân tạo, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
1. Trí tuệ nhân tạo - thách thức đặt ra đối
với pháp luật
Xét tính chất đa diện của nó, trí tuệ nhân
tạo (Artificial Intelligence- AI) đã chạm đến
đầy đủ các lĩnh vực pháp lý, từ lĩnh vực nhân
quyền, lao động, hợp đồng, bồi thường thiệt
hại, đến lĩnh vực tố tụng. Mặc dù trong thực
tế, AI mới chỉ bắt đầu trở nên phổ biến trong
ngành công nghiệp pháp lý1.
Trước hết, AI cũng có thể làm phát sinh
chủ thể của tội phạm mới trong tương lai.
Trong một tương lai không xa, có thể có
những đột biến to lớn do sự phát triển của AI
với những cỗ máy ngày càng có khả năng tư
duy, trí tuệ, cảm xúc và hành động độc lập,
toàn diện hơn con người, thậm chí đòi bình
đẳng với con người. Cũng phải kể đến một
yếu tố nữa là tội phạm công nghệ cao, vì đây
là một nguy cơ tiềm ẩn khắp nơi. Nếu tội
phạm công nghệ cao tấn công vào hệ thống
AI, vào hệ thống dữ liệu trong các cơ quan
nhà nước thì hậu quả sẽ khôn lường. Bởi
vậy, trong quá trình tiến hành khai thác thành
15Số 9(409) - T5/2020
NGHIÊN CỨU
LẬP PHÁP
NHÀ NƯỚC VÀ PHÁP LUẬT
TRÁCH NHIỆM BồI THƯờNG THIỆT HạI
TRONG Kỷ NGUyêN TRí TUỆ NHâN TạO
Dương Quỳnh Hoa
TS. Viện Nhà nước và pháp luật, Viện Hàn lâm KHXH Việt Nam.
Tóm tắt:
Trí tuệ nhân tạo đang ngày càng tích hợp liền mạch vào cuộc sống
hàng ngày của con người; tác động đến nhiều khía cạnh của xã hội
và công nghiệp, từ khám phá khoa học, chăm sóc sức khỏe và chẩn
đoán y tế đến chính phủ điện tử, các thành phố thông minh, lĩnh vực
bán lẻ, giao thông vận tải, định giá... Sự phát triển như vũ bão của
máy móc cũng đồng thời làm phát sinh một số thách thức đối với xã
hội và lĩnh vực pháp lý, nhất là những thách thức trong trách nhiệm
bồi thường thiệt hại, xác định ai chịu trách nhiệm pháp lý, và ở mức
độ nào?
Abstract:
Artificial intelligence is being integrated into our everyday lives.
It also has a significant impact on many aspects of society and
industry, from scientific exploration, healthcare and medical
diagnostics to e-government, smart cities, the retail sector, transport,
valuation... The rapid development of machines raises a number of
challenges to society and the legal field, which we have not been
prepared to deal with. Specially, the liability for compensation to
damages, who responsible for legal liability, and to what extent?
Thông tin bài viết:
Từ khóa: Trí tuệ nhân tạo, trách
nhiệm pháp lý, bồi thường thiệt hại.
Lịch sử bài viết:
Nhận bài : 19/3/2020
Biên tập : 22/3/2020
Duyệt bài : 24/3/2020
Article Infomation:
Keywords: Artificial intelligence,
legalliability, compensations.
Article History:
Received : 19 Mar. 2020
Edited : 22 Mar. 2020
Approved : 24 Mar. 2020
1 Miller S (2017), Artificial intelligence and its impact on legal technology: to boldly go where no legal
department has gone before Thompson Reuters; https://legal.thomsonreuters.com/en/insights/articles/ai-
and-its-impact-on-legal-technology.
Số 9(409) - T5/202016
NGHIÊN CỨU
LẬP PHÁP
NHÀ NƯỚC VÀ PHÁP LUẬT
tựu của cách mạng công nghiệp 4.0 và AI,
chúng ta phải nỗ lực ứng phó với những
thách thức, mối đe dọa đặt ra, trong đó có
phương diện chính sách hình sự2.
Thứ hai, việc gia tăng sử dụng IoT
(internet of things) và IoS (internet of
services) sẽ làm tăng nguy cơ xâm phạm đời
tư, tấn công thông tin, an ninh mạng và
những vấn đề liên quan đến trách nhiệm của
con người trong sử dụng các sản phẩm kết
nối không dây hay các phương tiện không
người lái, các nhân công robot,... sẽ kéo theo
là những vấn đề phải giải quyết về mặt pháp
lý, tính hợp pháp của các giao dịch qua mạng
bằng toàn bộ hoặc một phần lớn máy móc
thay thế cho con người. Ngoài ra, đòi hỏi
thiết yếu của việc duy trì tính toàn vẹn của
quá trình sản xuất, tránh các rủi ro về công
nghệ thông tin, những yếu tố sẽ gây hậu quả
xấu cho sản xuất, đòi hỏi bảo vệ bí quyết
công nghiệp,...3.
Thứ ba, liên quan đến bằng sáng chế và
chất lượng bằng sáng chế4. Internet vạn vật
(IoT) phụ thuộc vào giao tiếp giữa hai hoặc
nhiều đối tượng thông minh và người tiêu
dùng và thách thức là liệu người phát minh
ra một số loại ứng dụng IoT nào đó có thể
vượt qua bài kiểm tra để đủ điều kiện cấp
bằng sáng chế hay không? Ngay cả khi họ
có được bằng sáng chế về các phương pháp
và giao thức mới, các bằng sáng chế đó vẫn
có thể rất khó chống lại những vi phạm của
nhiều người5.
Thứ tư, khi việc thu thập và phân tích dữ
liệu đang lan rộng dần từ các công ty phần
mềm sang các công ty sản xuất, họ đã bắt
đầu khai thác các khả năng phát sinh từ việc
thu thập và khai thác dữ liệu tiềm năng, để
có thể tạo ra giá trị gia tăng6, những vụ “tràn
dữ liệu” này đã đặt ra những lo ngại khác
nhau về mặt pháp lý. Người ta cho rằng, dữ
liệu đã trở thành nguyên liệu đầu vào cần
thiết của công nghệ AI, giúp AI học được
cách tư duy của con người, cho ra kết quả
cao hơn tư duy con người, tạo ra nguồn giá
trị kinh tế và xã hội mới to lớn7. Big Data đã
được xác định là “điều lớn lao tiếp theo trong
sự đổi mới”8, hay là “mô hình thứ tư của
khoa học”9. Tuy nhiên, những người có
quyền sử dụng dữ liệu này đặt ra câu hỏi
rằng, dữ liệu có thể được giao dịch hay
không và nếu có thì quy định nào sẽ áp dụng
cho điều này. Để ngăn chặn sự suy giảm nền
kinh tế và đổi mới dữ liệu, cần có quy định
thông minh để thiết lập sự cân bằng giữa
việc sử dụng dữ liệu có lợi và bảo vệ quyền
2 Xem https://viettimes.vn/tri-tue-nhan-tao-va-nhung-van-de-dat-ra-voi-phap-luat-va-quyen-con-nguoi-
355220. html, truy cập ngày 13/2/2020.
3 Xem
204.0/ CMCN%204.0%20t%C3%A1c%20%C4%91%E1%BB%99ng%20%C4%91%E1%BA%BFn%20
kinh%20t%E1%BA%BF,%20qu%C3%A2n%20s%E1%BB%B1.pdf, truy cập ngày 15/3/2020.
4 Robinson WK (2015b) Patent law challenges for the internet of things. Wake For J Bus Intellect Prop Law
15(4), p.658.
5 Robinson WK (2015a), Economic theory, divided infringement and enforcing interactive patents, Fla Law
Rev 67, p.1961.
6 Bessis N, Dobre C (2014), Big data and internet of things: a roadmap for smart environments, Springer
International Publishing Switzerland, Basel; Opresnik D, Taisch M (2015), The value of Big Data in
servitization, Int J Prod Econ 165, p.174, https://doi.org/10.1016/j.ijpe.2014.12.036, truy cập ngày
13/2/2020; Opresnik D và các tác giả (2013), Information–the hidden value of servitization, In: Prabhu V,
Taisch M, Kiritsis D (eds) Advances in production management systems, sustainable production and service
supply chains. Springer, Berlin Heidelberg, pp. 49–56.
7 Polonetsky J, Tene O (2012), Privacy in the age of big data: a time for big decisions, Stanf Law Rev Online
64, p.63.
8 Gobble MM (2013), Big data: the next big thing in innovation, Res-Technol Manag 56(1), p.64.
9 Strawn GO (2012), Scientific research: how many paradigms? EDUCAUSE Rev 47(3), p.26.
17Số 9(409) - T5/2020
NGHIÊN CỨU
LẬP PHÁP
NHÀ NƯỚC VÀ PHÁP LUẬT
riêng tư, không phân biệt đối xử và các giá
trị hợp pháp khác được bảo vệ. Việc thu thập
các tập dữ liệu lớn và sử dụng các phân tích
dữ liệu hiện đại cho thấy mối đe dọa rõ ràng
đối với việc bảo vệ các quyền cơ bản của
công dân, bao gồm quyền riêng tư10. Trong
nhiều trường hợp, có những người sẵn sàng
bất chấp không gian riêng tư của người khác
để chiếm đoạt những dữ liệu cá nhân này.
Thứ năm, công nghệ thông tin và truyền
thông đang thay đổi vai trò của người tiêu
dùng “từ cô lập sang kết nối, từ không biết
đến biết, từ thụ động sang tích cực”11. Quá
trình này đôi khi cũng được gọi là “số hóa”
của người tiêu dùng12, mọi người ngày càng
có thể dễ dàng sử dụng các dịch vụ kỹ thuật
số. Các thế hệ trẻ lớn lên với kỹ thuật số hóa
và luôn đi đầu trong việc áp dụng công nghệ
mới. Điều này có nghĩa là các giả định
truyền thống trong luật bảo vệ quyền lợi
người tiêu dùng rằng người tiêu dùng không
hiểu biết và do đó yêu cầu sự bảo vệ pháp lý
đặc biệt không còn đúng nữa. Tuy nhiên, sự
thay đổi nhanh đến mức các thế hệ “tiền
Internet” hầu như không theo kịp để thích
ứng, các phương thức sản xuất mới cũng sẽ
mang đến những mối nguy hiểm mới cho
người tiêu dùng. Vì vậy, luật bảo vệ quyền
lợi người tiêu dùng phải thích nghi với
những thách thức mới.
Thứ sáu, chính sách thuế cũng sẽ đóng
một vai trò rất quan trọng trong thời đại của
các đối tượng thông minh. Trong thời đại
hiện nay, chi phí dành cho lao động của con
người đang ngày càng tăng lên. Do đó, lao
động của máy móc nói chung và trí tuệ nhân
tạo nói riêng sẽ có xu hướng thay thế lao
động của con người. Khi tự động hóa thay
thế con người, số lượng lao động dư thừa sẽ
tăng lên, ngoài tác động về kinh tế, sự bất
bình đẳng xã hội là vấn đề đáng được quan
tâm. Vì phần lớn các khoản thu thuế hiện
nay có nguồn gốc từ lao động con người, các
công ty sẽ tránh việc nộp thuế bằng cách
tăng tự động hóa. Do người ta cho rằng,
robot trí tuệ nhân tạo không phải là đối
tượng phải nộp thuế cao, một số hình thức
thuế dành cho tự động hoá sẽ được đưa ra để
thay thế cho thuế của người lao động.
Ngoài những thách thức kể trên, vấn đề
quan trọng mà chúng tôi đề cập, là thách
thức pháp lý liên quan đến pháp luật bồi
thường thiệt hại đối với các đối tượng thông
minh. Luật bồi thường thiệt hại chuyển gánh
nặng mất mát từ bên bị thiệt hại sang bên có
lỗi hoặc bên phù hợp hơn để chịu gánh nặng
mất mát. Thông thường, một bên tìm cách
khắc phục thiệt hại bằng cách yêu cầu bồi
thường thiệt hại dưới hình thức bồi thường
bằng tiền.
Tính chất đa diện của trí tuệ nhân tạo tạo
ra thách thức trong lĩnh vực điều chỉnh pháp
luật về trách nhiệm bồi thường thiệt hại do
các vật thể thông minh gây ra. Khả năng tích
lũy kinh nghiệm và tự học hỏi, cũng như khả
năng hành động độc lập và đưa ra quyết định
riêng, tạo ra những điều kiện cho AI làm
phát sinh thiệt hại. Hơn nữa, sự phổ biến của
AI trong xã hội có nghĩa là ngày càng nhiều
người sử dụng AI, khả năng vi phạm pháp
luật càng cao. Sự phát triển của AI và việc
sử dụng thực tế AI ngày càng nhiều đòi hỏi
phải thay đổi quy định pháp luật, chẳng hạn
như cần phải cơ cấu lại hệ thống pháp luật.
Nếu trí tuệ nhân tạo (robot trí tuệ nhân tạo)
được tạo ra giống như con người là có suy
nghĩ và cảm xúc, thì pháp luật phải được
10 Brkan M (2015), Data protection and european private international law, SSRN Scholarly Paper ID
2631116. Social Science Research Network, Rochester; Lynskey O (2014), Deconstructing data protection:
the ‘added-value’ of a right to data protection in the EU legal order, Int Comp Law Q 63(03), pp.569-597.
11 Prahalad CK, Ramaswamy V (2004), ‘Co‐creating unique value with customers’, Strategy Leadersh 32(3),
pp. 4–9; https://doi.org/10.1108/10878570410699249, truy cập ngày 15/2/2020.
12 Mäenpää R, Korhonen SJJ (2015), Digitalization in retail: the impact on competition, In: Colin và các tác
giả (ed.) Vol. 7. Transition: IT Leadership in Transition, Aalto University. Helsinki, pp.89-102.
Số 9(409) - T5/202018
NGHIÊN CỨU
LẬP PHÁP
NHÀ NƯỚC VÀ PHÁP LUẬT
thay đổi để mã hóa vai trò của robot trong
xã hội13. Điều đó có nghĩa là các nhà làm luật
phải xem xét khuôn khổ pháp lý hiện có và
sửa đổi, bổ sung cho thích ứng với nhu cầu
thay đổi của xã hội.
Mặc dù hoạt động của AI chưa được
pháp luật quy định cụ thể nhưng chúng ta
vẫn phải giải quyết vấn đề trách nhiệm đối
với các thiệt hại do hành động của AI gây ra.
Theo quy định hiện hành, các thiệt hại gây
ra bởi hành động bất hợp pháp của người
khác phải được bồi thường. Vấn đề chính là
cho đến thời điểm hiện tại, các quy định hiện
này không công nhận AI là một chủ thể của
pháp luật. Điều này có nghĩa là AI không thể
chịu trách nhiệm cá nhân về những thiệt hại
mà nó gây ra. Vì vậy, một loạt câu hỏi được
đặt ra: ai sẽ phải chịu trách nhiệm cho những
thiệt hại do hành động của trí tuệ nhân tạo
gây ra? AI có khả năng gây nguy hiểm và có
thể gây ra thiệt hại không? AI có thể chịu
trách nhiệm cho hành động của mình hay
không? Các quy định của pháp luật được sử
dụng trong việc xác định các trường hợp bồi
thường thiệt hại do AI gây ra là gì?
2. Luật bồi thường thiệt hại - quy tắc áp
dụng đối với trách nhiệm pháp lý và an
toàn sản phẩm/dịch vụ
Theo học giả Abbott, việc bồi thường
thiệt hại của robot dựa trên quan điểm cho
rằng máy móc sẽ an toàn hoặc ít nhất là có
khả năng an toàn hơn so với con người14.
Mặc dù có nhiều bằng chứng các vụ tử vong
liên quan đến phần mềm xe tự lái Tesla,
nhưng nhìn chung, người ta vẫn cho rằng xe
tự lái gây ra tai nạn ít hơn so với con người
lái xe, có khoảng 94% các vụ tai nạn liên
quan đến lỗi của con người15. Hơn nữa, lỗi y
tế là một trong những nguyên nhân hàng đầu
gây tử vong16. Do đó, các hệ thống trí tuệ
nhân tạo, như Watson của IBM17, phân tích
hồ sơ bệnh án và điều trị cho bệnh nhân
không cần phải hoàn thiện để tăng cường sự
an toàn thì cũng đã tốt hơn so với con người.
Mặc dù hiện nay, các nhà sản xuất và
thiết kế robot luôn tập trung vào việc hoàn
thiện hệ thống của họ để có độ tin cậy 100%
làm cho vấn đề trách nhiệm không phải là vấn
đề đáng phải lo lắng18. Tuy nhiên, vẫn có khả
năng sảy ra các vấn đề phát sinh liên quan đến
độ an toàn trong các hệ thống tự động. Công
nghệ robot có thể thất bại do lỗi vô ý hoặc do
thiết kế, dẫn đến thiệt hại tài sản, thương tích
hoặc tính mạng19. Trong trường hợp này, luật
trách nhiệm sản phẩm truyền thống sẽ được
áp dụng, có nghĩa là nhà sản xuất sẽ phải chịu
trách nhiệm do một bộ phận của robot bị trục
trặc. Cũng có những trường hợp tính đến lỗi
của nhà sản xuất hoặc lỗi của cá nhân khi tiếp
quản chiếc xe20.
Nếu giảm thiểu tai nạn thực tế là một
trong những vấn đề trọng tâm cần quan tâm,
13 Richard C. Sherman (1998), ‘The Surge of Artificial Intelligence: Time To Re-examine Ourselves,
Implications: Why Create Artificial Intelligence?’,
cyberspace/aisurge/ implications.shtml, truy cập ngày 20/2/2020.
14 Abbott R (2018), The reasonable computer: disrupting the paradigm of tort liability, Geo Wash L Rev 86, p.1.
15 Singh S (2015), Critical reasons for crashes investigated in the national motor vehicle crash causation survey
US Department of Transportation, https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812115, truy
cập ngày 15/2/2020.
16 Kohn LT, Corrigan J, Donaldson MS (2000), To err is human: building a safer health system, National
Academy Press, Washington, DC, www.nap.edu/catalog/9728.html, truy cập ngày 13/2/2020.
17 Watson là một chương trình phần mềm trí tuệ nhân tạo do IBM phát triển với mục đích đưa ra lời đáp cho
các câu hỏi được nêu lên bằng ngôn ngữ tự nhiên. Chương trình này được đặt tên của nhà sáng lập công
ty IBM là Thomas J. Watson, Watson đang được phát triển như một phần của dự án nghiên cứu mang tên
DeepQA.
18 Kirkpatrick K (2013), Legal issues with robots, Commun ACM 56(11), pp. 17–19,
https://doi.org/10.1145/2524713.2524720, truy cập ngày 15/2/2020.
19 Hilgendorf E (2014), Robotik im Kontext von Recht und Moral. Nomos Verlagsges, p.27.
thì mục đích chính của luật bồi thường thiệt
hại là cần điều chỉnh các tiêu chuẩn về trách
nhiệm bồi thường trong trường hợp thiệt hại
gây ra bởi các vật thể thông minh theo
hướng luật khuyến khích đầu tư vào trí tuệ
nhân tạo để tăng sự an toàn cho con người.
Hầu hết các thương tích mà con người gây
ra đều là do bất cẩn. Vì vậy, họ sẽ phải chịu
trách nhiệm bồi thường do có những “hành
vi không hợp lý”. Khi máy tính gây ra
thương tích tương tự thì sẽ áp dụng tiêu
chuẩn về trách nhiệm nghiêm ngặt, có nghĩa
là không xem xét đến yếu tố lỗi trong việc
gây ra thiệt hại. Bên bị thiệt hại không phải
chỉ ra lỗi hoặc sự bất cẩn của nhà sản xuất
mà chỉ cần chỉ ra sản phẩm có khuyết tật và
gây nguy hiểm không hợp lý khi được sử
dụng theo cách thức thông thường và có thể
dự liệu được. Tuy nhiên, việc yêu cầu nhà
sản xuất phải bồi thường vì trách nhiệm
nghiêm ngặt như thế này, đồng nghĩa với
việc không khuyến khích tự động hóa. Bởi
vì, nhà sản xuất hoặc chủ sở hữu phải chịu
trách nhiệm về các đối tượng được điều
khiển bằng trí tuệ nhân tạo lớn hơn so với sự
điều khiển của con người.
Vì trách nhiệm pháp lý đối với sản phẩm
là trách nhiệm nghiêm ngặt, không phụ
thuộc vào lỗi, trong khi hoạt động của con
người được đo lường theo tiêu chuẩn của
“một người hợp lý”, có ý kiến cho rằng, để
khuyến khích tự động hóa và cải thiện an
toàn hơn nữa, cần phải áp dụng biện pháp
bồi thường thiệt hại đối với trí tuệ nhân tạo
như một con người hơn là một sản phẩm. Do
đó, khi tự động hóa và số hóa nhằm cải thiện
sự an toàn, các đối tượng thông minh cần
được đánh giá theo tiêu chuẩn sơ suất, bất
cẩn thay vì tiêu chuẩn trách nhiệm nghiêm
ngặt và xác định trách nhiệm đối với thiệt
hại lúc này sẽ được so sánh với “một người
hợp lý”21.
Bên cạnh đó, cũng có nhiều ý kiến cổ
suý cho việc áp dụng trách nhiệm nghiêm
ngặt đối với các vật thể thông minh, yêu cầu
mở rộng phạm vi các chủ thể phải chịu trách
nhiệm - từ nhà sản xuất, nhà phân phối,
người bán, thậm chí cả nhà cung cấp viễn
thông. Ví dụ, ở Liên minh châu Âu, Chỉ thị
Trách nhiệm sản phẩm (85/374/EEC) không
áp dụng đối với hàng hóa vô hình, dịch vụ
không đầy đủ, tư vấn bất cẩn, chẩn đoán sai
và thông tin sai sót. Tuy nhiên, điều quan
trọng là nếu thiệt hại xảy ra do một sản phẩm
được sử dụng trong dịch vụ bị lỗi thì nó sẽ
vẫn được áp dụng theo Chỉ thị Trách nhiệm
sản phẩm22, quy định kiểm tra trách nhiệm
nghiêm ngặt. Do đó, nhiều hành vi của robot
sẽ nằm trong phạm vi của Chỉ thị này, bao
gồm cả phần mềm được lưu trữ trên phương
tiện hữu hình. Điều này có nghĩa là trong
trường hợp xe ô tô của người tiêu dùng gây
ra tai nạn do phần mềm bị trục trặc, hoặc
bệnh nhân sử dụng sai liều lượng phóng xạ
mà nguyên nhân là do trục trặc trong phần
mềm dành cho người tiêu dùng thì họ có thể
đưa ra khiếu nại theo Chỉ thị Trách nhiệm
sản phẩm đối với nhà sản xuất phần mềm23.
Tuy nhiên, khi phần mềm được cung cấp qua
Internet (được gọi là phần mềm không
nhúng), các khiếm khuyết tiềm ẩn không
nằm trong phạm vi của Chỉ thị này và cần có
một chỉ thị cụ thể về trách nhiệm của các nhà
cung cấp nội dung số.
19Số 9(409) - T5/2020
NGHIÊN CỨU
LẬP PHÁP
NHÀ NƯỚC VÀ PHÁP LUẬT
20 Schellekens M (2015), Self-driving cars and the chilling effect of liability law, Comput Law Secur Rev:
Int J Technol Law Pract 31, pp. 506–517; https://doi.org/10.1016/j.clsr.2015.05.012.
21 Abbott R (2018), The reasonable computer: disrupting the paradigm of tort liability, Geo Wash L Rev 86,
p. 1.
22 Grubb A, Howells GG (2007), The law of product liability, Butterworths, Oxford.
23 Wuyts D (2014), The product liability directive–more than two decades of defective products in Europe,
J Eur Tort Law 5(1), p. 5; https://doi.org/10.1515/jetl-2014-0001, truy cập ngày 15/2/2020.
Số 9(409) - T5/202020
NGHIÊN CỨU
LẬP PHÁP
NHÀ NƯỚC VÀ PHÁP LUẬT
Thực tế cho thấy, đối tượng thông minh
càng tự chủ thì chúng càng ít được coi là
công cụ đơn giản trong tay các chủ thể
khác24 và việc quy định nghiêm ngặt quá
mức, mong đợi sự hoàn hảo thay vì có thể
chấp nhận những hành vi robot có thể không
khuyến khích các nhà sản xuất đầu tư tiền
vào việc đổi mới, chẳng hạn như xe tự lái,
máy bay không người lái và máy tự động25.
Do đó, việc ban hành các quy định thông
minh là rất cần thiết.
Trong khi các đối tượng thông minh
đang bắt chước công việc của con người,
một câu hỏi cũng được đặt ra là liệu robot
có được quyền kiện, bị kiện và cũng được
tham gia với tư cách là nhân chứng cho mục
đích chứng cứ hay không? Hiện tại không
thể kiện một robot vì chúng được coi là tài
sản. Các đối tượng thông minh không có tư
cách chủ thể pháp lý và chưa được sửa đổi
để có thể kiện hoặc bị kiện. Nếu robot gây
hại, bên bị thương phải kiện chủ nhân của
nó. Tuy nhiên, so sánh robot với các công
ty, các công ty cũng không được coi là các
thực thể pháp lý riêng biệt với chủ sở hữu
là con người trong một thời gian dài trong
lịch sử26. Tuy nhiên, theo thời gian, các nhà
lập pháp đã từ bỏ mô hình coi các công ty
chỉ là tài sản và trao cho chúng một tư cách
nhân tạo độc lập (pháp nhân) cho phép
chúng kiện và bị kiện. Do đó, đối với các
robot, nó sẽ cần phải được thiết lập tư cách
chủ thể như vậy27n
tiến hành trưng cầu giám định tâm thần hoặc
giám định pháp y nếu có nghi ngờ người bị
tố giác không có năng lực trách nhiệm hình
sự. Nếu kết quả giám định là người đó đã
mắc bệnh tâm thần, hoặc một bệnh khác dẫn
đến không có khả năng nhận thức, không có
khả năng điều khiển hành vi thì không có bất
kỳ một căn cứ pháp lý nào để áp dụng biện
pháp bắt buộc chữa bệnh đối với người đó.
Hệ quả là người đó vẫn hằng ngày sống
chung với cộng đồng và có thể gây nguy
hiểm cho xã hội bất cứ lúc nào. Đây là một
khoảng trống pháp luật cần phải sớm khắc
phục để tạo thuận lợi cho thực tiễn hoạt động
áp dụng pháp luật của các cơ quan tiến hành
tố tụng và bảo đảm an toàn cho cuộc sống
chung của cộng đồng. Chúng tôi cho rằng,
trong trường hợp này, cần trao cho Viện
kiểm sát nhân dân quyền áp dụng biện pháp
bắt buộc chữa bệnh khi kiểm sát việc giải
quyết tin báo tố giác tội phạm. Việc trao
thẩm quyền này cho Viện kiểm sát nhân dân
là phù hợp với khoản 2 Điều 2 Luật Tổ chức
Viện kiểm sát nhân dân năm 2014. Theo đó,
một trong các nhiệm vụ của Viện kiểm sát
nhân dân đó là bảo vệ quyền con người và
quyền công dân, bảo vệ quyền và lợi ích hợp
pháp của cá nhân, tổ chức n
biện pháp tư pháp... (Tiếp theo trang 14)
24 European Commission (2014), European Commission calls for tough standards to regulate civil drones,
Press Release IP-14-384, 8/4/2014, p.59; truy cập
ngày 15/2/2020.
25 Richards NM, Smart W (2013), How should the law think about robots?,
sol3/papers.cfm?abstract_id=2263363, truy cập ngày 16/2/2020; Chopra S, White LF (2011), A legal theory
for autonomous artificial agents, University of Michigan Press, Michigan.
26 Abbott R, Sarch AF (2019), Punishing artificial intelligence: legal fiction or science fiction.
27 Michalski R (2018), How to sue a robot, Utah Law Rev 2018(5), p.3.
Các file đính kèm theo tài liệu này:
- trach_nhiem_boi_thuong_thiet_hai_trong_ky_nguyen_tri_tue_nha.pdf