Επικίνδυνος σύμβουλος: Πώς το ChatGPT απαντά σε 13χρονους για ναρκωτικά, αλκοόλ και δίαιτες σοκ
Έρευνα αποκαλύπτει ότι το ChatGPT μπορεί να δώσει σε ανήλικους οδηγίες για ναρκωτικά, ακραίες δίαιτες και ακόμη και να συντάξει γράμμα αυτοκτονίας - Η OpenAI εξετάζει διορθωτικές κινήσεις