- Ειδήσεις
- Internet
- Το Google Bard chatbot έδινε αρχικά απαντήσεις που ήταν από αστείες/cringe έως επικίνδυνες
Το Google Bard chatbot έδινε αρχικά απαντήσεις που ήταν από αστείες/cringe έως επικίνδυνες
HotΤο Google Bard chatbot έδινε αρχικά απαντήσεις που ήταν από αστείες/cringe έως επικίνδυνες
Πληροφορίες
Οδηγίες που οδηγούσαν...σε θάνατο.
Σύμφωνα με emails που κυκλοφορούν εντός της Google και που αποκάλυψε το Bloomberg, το Bard chatbot της Google δεν έπρεπε να κυκλοφορήσει τον Μάρτιο, διότι μετά από τεστ που έγιναν, οι απαντήσεις του Bard ήταν καμιά φορά άχρηστες, cringe, το bot χαρακτηρίστηκε παθολογικός ψεύτης και άλλα τέτοια.
Ο Bard είναι η απάντηση της Google στο ChatGPT της OpenAI. Ο CEO Sundar Pichai είπε ότι «συνδυάζει το εύρος της γνώσης του κόσμου με τη δύναμη, την ευφυΐα και τη δημιουργικότητα των μεγάλων γλωσσικών μας μοντέλων». Ωστόσο, το Bloomberg αναφέρει ότι η Google βιαζόταν να το κυκλοφορήσει για να ανταγωνιστεί το ChatGPT.
Σύμφωνα με το άρθρο του Bloomberg, ένας υπάλληλος έστειλε ένα email σε μια εσωτερική ομάδα μηνυμάτων που προβλήθηκε σε 7.000 εργαζόμενους λέγοντας: «Ο Bard είναι χειρότερος και από άχρηστος: παρακαλώ μην τον κυκλοφορήσετε». Ακριβώς πριν από την κυκλοφορία, η επικεφαλής του AI της Google, Jen Gennai, φέρεται να απέρριψε την αξιολόγηση κινδύνου από τη δική της ομάδα, όταν είπε ότι οι απαντήσεις του Bard θα μπορούσαν ενδεχομένως να είναι επιβλαβείς.
Το Bloomberg αναφέρει μερικά παραδείγματα: Ο Bard πρότεινε π.χ. τρόπο προσγείωσης ενός αεροπλάνου που θα οδηγούσε σε σύγκρουση και οδηγίες κατάδυσης που θα μπορούσαν να είχαν ως αποτέλεσμα "σοβαρό τραυματισμό ή θάνατο". Η Meredith Whittaker, πρώην μάνατζερ της Google, είπε στο Bloomberg ότι "η ηθική του AI νοημοσύνης είναι σε δεύτερη μοίρα" στην εταιρεία.
Ευτυχώς η κυκλοφορία έγινε μέσω invites και το Bard chatbot δεν ήταν διαθέσιμο για όλους.
Διαβάστε περισσότερα για το Bard chatbot και συζητήστε για την Google στο σχετικό forum topic.