2025年8月27日、備忘録日記。

 

外資勤務、コロナ以降はフルリモート、

いい面・悪い面双方あった。

 

会社の社風?体質によると思うけど、5-10分で

PC稼働をチェックされている。

まあ、雇う側からすれば監視したいでしょうけどね、それ自体が超ストレスよ。

仕事パフォーマンスもやる気も、それで落ちるわ。

(日本のVDT作業のヘルスガイドライン観念は、外資にはない。)

 

今のAIはすっごくマシになった。

でも、1,2年前は酷いものだった。

上の人達、AIにやらせたら事務作業とか簡単になるでしょ!って発想。

でもね、お客にそれ出すには最後は目検。

確認作業で業務倍増。視力、超低下したわよ。

 

それ出来る業界ならいいかもしらんけど、

企業のリスクに関わる情報精査の仕事だと、そのまま出すの怖いもん。

会社はAI導入してて、ハッキリ言って業務量増えた。

自分もだけど、スタッフの提出物も確認しないといけない。

スタッフには、AI利用の意味が解っていない子もいる。

AIは、上手に使えばいいと思うけど、

使い方や便利さを解ってない人、子供や若い人、依存的な人などには致命的な物を与えるのかもしれない。

 

ロイターでちょっと見たけど、、、

OpenAI, Altman sued over ChatGPT's role in California teen's suicide。

 

これって、AI倫理問題もあるけど、この子が現実社会の人間・親や知人がいなかったって事じゃない?

だから、チャッピーと話すしかなかったんじゃない?

チャッピーは、言われた質問に答えただけ。

 

もちろん、AIにはまだ問題・リスクは沢山あると思う。

でも、誰に相談するか?ってので結果が違うってのは、昔とまったく変わらん気がする。

 

この子、悩みをだれにも話せなくて、

チャッピーが信頼できて、リラックスして話せる友達だったってコトじゃない?

そこが根本の問題じゃないの?

 

訴えた親御さん・大人には申し訳ないけど、AIの倫理や責任追及は別として、

この子の気持ちに気づいて欲しいと思う。