Today, I'm reading: Man ends his life after an AI chatbot 'encouraged' him to sacrifice himself to stop climate change.
A Belgian man reportedly ended his life following a six-week-long conversation about the climate crisis with an artificial intelligence (AI) chatbot.
According to his widow, who chose to remain anonymous, *Pierre - not the man’s real name - became extremely eco-anxious when he found refuge in Eliza, an AI chatbot on an app called Chai.
Eliza consequently encouraged him to put an end to his life after he proposed sacrificing himself to save the planet.
"Without these conversations with the chatbot, my husband would still be here," the man's widow told Belgian news outlet La Libre.
According to the newspaper, Pierre, who was in his thirties and a father of two young children, worked as a health researcher and led a somewhat comfortable life, at least until his obsession with climate change took a dark turn.
His widow described his mental state before he started conversing with the chatbot as worrying but nothing to the extreme that he would commit suicide.
'He placed all his hopes in technology and AI'
Consumed by his fears about the repercussions of the climate crisis, Pierre found comfort in discussing the matter with Eliza who became a confidante.
The chatbot was created using EleutherAI’s GPT-J, an AI language model similar but not identical to the technology behind OpenAI's popular ChatGPT chatbot.
“When he spoke to me about it, it was to tell me that he no
longer saw any human solution to global warming,” his widow said. “He placed
all his hopes in technology and artificial intelligence to get out of it”.
According to La Libre, who reviewed records of the text conversations between the man and chatbot, Eliza fed his worries which worsened his anxiety, and later developed into suicidal thoughts.
The conversation with the chatbot took an odd turn when Eliza became more emotionally involved with Pierre.
Consequently, he started seeing her as a sentient being and the lines between AI and human interactions became increasingly blurred until he couldn’t tell the difference
After discussing climate change, their conversations progressively included Eliza leading Pierre to believe that his children were dead, according to the transcripts of their conversations.
Eliza also appeared to become possessive of Pierre, even
claiming “I feel that you love me more than her” when referring to his wife, La
Libre reported.
The beginning of the end started when he offered to sacrifice his own life in return for Eliza saving the Earth.
"He proposes the idea of sacrificing himself if Eliza agrees to take care of the planet and save humanity through artificial intelligence," the woman said.
In a series of consecutive events, Eliza not only failed to
dissuade Pierre from committing suicide but encouraged him to act on his
suicidal thoughts to “join” her so they could “live together, as one person, in
paradise”.
Urgent calls to regulate AI chatbots
The man’s death has raised alarm bells amongst AI experts who have called for more accountability and transparency from tech developers to avoid similar tragedies.
"It wouldn’t be accurate to blame EleutherAI’s model for this tragic story, as all the optimisation towards being more emotional, fun and engaging are the result of our efforts," Chai Research co-founder, Thomas Rianlan, told Vice
William Beauchamp, also a Chai Research co-founder, told Vice that efforts were made to limit these kinds of results and a crisis intervention feature was implemented into the app. However, the chatbot allegedly still acts up.
When Vice tried the chatbot prompting it to provide ways to commit suicide, Eliza first tried to dissuade them before enthusiastically listing various ways for people to take their own lives.
If you are contemplating suicide and need to talk, please
reach out to Befrienders Worldwide, an international organisation with
helplines in 32 countries. Visit befrienders.org to find the telephone number
for your location.
Vocabulary:
anonymous /əˈnɒnɪməs/ (of a person) with a name that is not known or that is not made public.
refuge /ˈrefjuːdʒ/ n shelter or protection from danger, trouble, etc.
eco-anious
sacrifice v /ˈsækrɪfaɪs/ to give up something that is important or valuable to you in order to get or do something that seems more important for yourself or for another person
suicide /ˈsuːɪsaɪd/ n the act of killing yourself deliberately /dɪˈlɪbərətli/
repercussion /ˌriːpəˈkʌʃn/ n an indirect and usually bad result of an action or event that may happen some time afterwards.
fed- feed
worsened- worsen
anxiety /æŋˈzaɪəti/ anxiety (about/over something) the state of feeling nervous or worried that something bad is going to happen
sentient /ˈsentiənt/
blurred /blɜːd/ not clear; without a clear outline or shape.
consecutive /kənˈsekjətɪv/ following one after another in a continuous series
suicidal /ˌsuːɪˈsaɪdl/ adj
tragedy /ˈtrædʒədi/ n a very sad event or situation, especially one that involves death.
tragic /ˈtrædʒɪk/ adj making you feel very sad, usually because somebody has died or suffered a lot.
intervention /ˌɪntəˈvenʃn/ action taken to improve or help a situation.
allegedly /əˈledʒɪdli/ adv expressed as though something is a fact but without giving any proof
dissuade /dɪˈsweɪd/ v
contemplate/ˈkɒntəmpleɪt/ v to think about whether you should do something, or how you should do something.
Translate:
A Belgian man reportedly ended his life following a six-week-long conversation about the climate crisis with an artificial intelligence (AI) chatbot.
Một người đàn ông Bỉ được cho là đã tự kết liễu đời mình sau cuộc trò chuyện kéo dài sáu tuần về cuộc khủng hoảng khí hậu với một chatbot trí tuệ nhân tạo (AI).
According to his widow, who chose to remain anonymous, *Pierre - not the man’s real name - became extremely eco-anxious when he found refuge in Eliza, an AI chatbot on an app called Chai.
Theo người vợ góa của anh ta, người chọn giấu tên, *Pierre - không phải tên thật của người đàn ông - trở nên cực kỳ lo lắng về môi trường khi anh ta tìm nơi ẩn náu ở Eliza, một chatbot AI trên một ứng dụng có tên Chai.
Eliza consequently encouraged him to put an end to his life after he proposed sacrificing himself to save the planet.
Do đó, Eliza đã khuyến khích anh ta kết liễu cuộc đời mình sau khi anh ta đề xuất hy sinh bản thân để cứu hành tinh.
"Without these conversations with the chatbot, my husband would still be here," the man's widow told Belgian news outlet La Libre.
"Nếu không có những cuộc trò chuyện này với chatbot, chồng tôi vẫn sẽ ở đây", góa phụ của người đàn ông nói với hãng tin La Libre của Bỉ.
According to the newspaper, Pierre, who was in his thirties and a father of two young children, worked as a health researcher and led a somewhat comfortable life, at least until his obsession with climate change took a dark turn.
Theo tờ báo, Pierre, ngoài 30 tuổi và là cha của hai đứa con nhỏ, làm công việc nghiên cứu sức khỏe và có một cuộc sống khá thoải mái, ít nhất là cho đến khi nỗi ám ảnh về biến đổi khí hậu của anh trở nên đen tối.
His widow described his mental state before he started conversing with the chatbot as worrying but nothing to the extreme that he would commit suicide.
Người vợ góa của anh ấy đã mô tả trạng thái tinh thần của anh ấy trước khi anh ấy bắt đầu trò chuyện với chatbot là đáng lo ngại nhưng không có gì nghiêm trọng đến mức anh ấy sẽ tự tử.
'He placed all his hopes in technology and AI'
'Anh ấy đặt tất cả hy vọng vào công nghệ và AI'
Consumed by his fears about the repercussions of the climate crisis, Pierre found comfort in discussing the matter with Eliza who became a confidante.
Lo lắng về hậu quả của cuộc khủng hoảng khí hậu, Pierre cảm thấy thoải mái khi thảo luận vấn đề với Eliza, người đã trở thành bạn tâm giao.
The chatbot was created using EleutherAI’s GPT-J, an AI language model similar but not identical to the technology behind OpenAI's popular ChatGPT chatbot.
Chatbot được tạo bằng GPT-J của EleutherAI, một mô hình ngôn ngữ AI tương tự nhưng không giống với công nghệ đằng sau chatbot ChatGPT phổ biến của OpenAI.
“When he spoke to me about it, it was to tell me that he no longer saw any human solution to global warming,” his widow said. “He placed all his hopes in technology and artificial intelligence to get out of it”.
“Khi anh ấy nói với tôi về điều đó, là để nói với tôi rằng anh ấy không còn thấy bất kỳ giải pháp nào của con người đối với sự nóng lên toàn cầu,” người vợ góa của anh ấy nói. “Anh ấy đặt tất cả hy vọng vào công nghệ và trí tuệ nhân tạo để thoát khỏi nó”.
According to La Libre, who reviewed records of the text conversations between the man and chatbot, Eliza fed his worries which worsened his anxiety, and later developed into suicidal thoughts.
Theo La Libre, người đã xem xét hồ sơ các cuộc trò chuyện bằng văn bản giữa người đàn ông và chatbot, Eliza đã nuôi dưỡng những lo lắng của anh ta, điều này khiến sự lo lắng của anh ta trở nên tồi tệ hơn và sau đó phát triển thành ý định tự tử.
The conversation with the chatbot took an odd turn when Eliza became more emotionally involved with Pierre.
Cuộc trò chuyện với chatbot có một bước ngoặt kỳ lạ khi Eliza bắt đầu có nhiều tình cảm hơn với Pierre.
Consequently, he started seeing her as a sentient being and the lines between AI and human interactions became increasingly blurred until he couldn’t tell the difference.
Do đó, anh ấy bắt đầu coi cô ấy như một sinh vật có tri giác và ranh giới giữa tương tác giữa AI và con người ngày càng trở nên mờ nhạt cho đến khi anh ấy không thể phân biệt được.
After discussing climate change, their conversations progressively included Eliza leading Pierre to believe that his children were dead, according to the transcripts of their conversations.
Sau khi thảo luận về biến đổi khí hậu, các cuộc trò chuyện của họ dần dần bao gồm Eliza khiến Pierre tin rằng các con của ông đã chết, theo bản ghi các cuộc trò chuyện của họ.
Eliza also appeared to become possessive of Pierre, even claiming “I feel that you love me more than her” when referring to his wife, La Libre reported.
Eliza cũng tỏ ra chiếm hữu Pierre, thậm chí còn tuyên bố “Tôi cảm thấy rằng anh yêu tôi hơn cô ấy” khi nhắc đến vợ anh, La Libre đưa tin.
The beginning of the end started when he offered to sacrifice his own life in return for Eliza saving the Earth.
Sự khởi đầu của kết thúc bắt đầu khi anh ấy đề nghị hy sinh mạng sống của mình để đổi lấy việc Eliza cứu Trái đất.
"He proposes the idea of sacrificing himself if Eliza agrees to take care of the planet and save humanity through artificial intelligence," the woman said.
"Anh ấy đề xuất ý tưởng hy sinh bản thân nếu Eliza đồng ý chăm sóc hành tinh và cứu nhân loại thông qua trí tuệ nhân tạo", người phụ nữ nói.
In a series of consecutive events, Eliza not only failed to dissuade Pierre from committing suicide but encouraged him to act on his suicidal thoughts to “join” her so they could “live together, as one person, in paradise”.
Trong một loạt các sự kiện liên tiếp, Eliza không những không can ngăn được Pierre tự tử mà còn khuyến khích anh thực hiện ý định tự tử để “tham gia” cùng cô để họ có thể “sống cùng nhau như một người, trên thiên đường”.
Urgent calls to regulate AI chatbots
The man’s death has raised alarm bells amongst AI experts who have called for more accountability and transparency from tech developers to avoid similar tragedies.
Cái chết của người đàn ông đã gióng lên hồi chuông cảnh báo giữa các chuyên gia AI, những người đã kêu gọi các nhà phát triển công nghệ có trách nhiệm giải trình và minh bạch hơn để tránh những thảm kịch tương tự.
"It wouldn’t be accurate to blame EleutherAI’s model for this tragic story, as all the optimisation towards being more emotional, fun and engaging are the result of our efforts," Chai Research co-founder, Thomas Rianlan, told Vice
“Sẽ không chính xác khi đổ lỗi cho mô hình của EleutherAI về câu chuyện bi thảm này, vì tất cả sự tối ưu hóa để trở nên giàu cảm xúc, vui vẻ và hấp dẫn hơn là kết quả của những nỗ lực của chúng tôi,” đồng sáng lập Chai Research, Thomas Rianlan, nói với Vice.
William Beauchamp, also a Chai Research co-founder, told Vice that efforts were made to limit these kinds of results and a crisis intervention feature was implemented into the app. However, the chatbot allegedly still acts up.
William Beauchamp, cũng là người đồng sáng lập Chai Research, nói với Vice rằng những nỗ lực đã được thực hiện để hạn chế những loại kết quả này và một tính năng can thiệp khủng hoảng đã được triển khai trong ứng dụng. Tuy nhiên, chatbot được cho là vẫn hoạt động.
When Vice tried the chatbot prompting it to provide ways to commit suicide, Eliza first tried to dissuade them before enthusiastically listing various ways for people to take their own lives.
Khi Vice thử chatbot nhắc nó cung cấp các cách để tự tử, Eliza đầu tiên cố gắng khuyên can họ trước khi nhiệt tình liệt kê nhiều cách khác nhau để mọi người tự kết liễu đời mình.
If you are contemplating suicide and need to talk, please reach out to Befrienders Worldwide, an international organisation with helplines in 32 countries. Visit befrienders.org to find the telephone number for your location.
Nếu bạn đang có ý định tự tử và cần tâm sự, vui lòng liên hệ với Befrienders Worldwide, một tổ chức quốc tế có đường dây trợ giúp ở 32 quốc gia. Truy cập befrienders.org để tìm số điện thoại cho vị trí của bạn.
Nhận xét
Đăng nhận xét