یه مرد بلژیکی بعد از اینکه چند هفته داشت با یه چت‌باتی به اسم الیزا راجع به مشکلات و دغدغه‌هاش صحبت می‌کرد خودکشی کرد، چون چت‌بات بهش گفته بود این کارو بکنه! این خبریه که این چند وقته حسابی وایرال شده و خیلی‌ها رو هم نگران کرده. به‌نظرتون وقتی به هوش مصنوعی اعتماد می‌کنیم و میذاریم AI برای زندگیمون تصمیم بگیره، چه پیامدهایی می‌تونه داشته باشه؟ از این دست خبرها باز هم بوده و توی این ویدیو بیشتر از خطرات چت‌بات‌ها بهتون می‌گیم.