Δικηγόρος χρησιμοποίησε το ChatGPT και τώρα βρίσκεται στη θέση του κατηγορούμενου
Όπως ισχυρίστηκε ο ίδιος, δεν ήξερε πως η εφαρμογή μπορούσε να αναπαράγει αναληθές περιεχόμενο
- Δημήτρης Κόκοτας: Είμαστε αισιόδοξοι λέει η σύζυγός του
- Τεχνητή νοημοσύνη και ωδή στο γυμνό: Αυτές ήταν οι πιο τολμηρές φωτογραφίες την χρονιά του 2024
- Η Μπλέικ Λάιβλι μηνύει για σεξουαλική παρενόχληση τον συμπρωταγωνιστή της,Τζάστιν Μπαλντόνι
- Ρόμπι Γουίλιαμς: Στην Ελλάδα για συναυλία υπερπαραγωγή & άκυρος για Όσκαρ
Αντιμέτωπος με τη Δικαιοσύνη θα βρεθεί ένας δικηγόρος από τη Νέα Υόρκη, καθώς παραδέχτηκε πως χρησιμοποίησε το ChatGPT για την επίλυση μίας υπόθεσής του.
Το κουβάρι άρχισε να ξετυλίγεται όταν ο δικαστής ανακάλυψε μία κατάθεση η οποία αναφερόταν σε νομικές υποθέσεις οι οποίες δεν υπήρχαν.
Ο δικηγόρος που χρησιμοποίησε την εφαρμογή τεχνητής νοημοσύνης είπε στο δικαστήριο ότι «αγνοούσε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».
Σημειώνεται ότι το ChatGPT δημιουργεί πρωτότυπο κείμενο κατόπιν αιτήματος, αλλά συνοδεύεται από προειδοποιήσεις ότι μπορεί να «παράγει ανακριβείς πληροφορίες».
Η αρχική υπόθεση αφορούσε έναν άνδρα που μήνυσε μια αεροπορική εταιρεία για υποτιθέμενο προσωπικό τραυματισμό. Η νομική ομάδα του υπέβαλε μια σύντομη ενημέρωση που ανέφερε προηγούμενες δικαστικές υποθέσεις σε μια προσπάθεια να αποδείξει, γιατί η υπόθεση πρέπει να προχωρήσει.
Ωστόσο, σύμφωνα με το BBC οι δικηγόροι της αεροπορικής εταιρείας είπαν στον δικαστή πως δεν μπορούσαν να βρουν αρκετές από τις υποθέσεις που ανέφερε η αντίπαλη πλευρά.
«Έξι από τις υποβληθείσες υποθέσεις φαίνεται να είναι ψεύτικες δικαστικές αποφάσεις με ψεύτικα παραθέματα και ψεύτικες εσωτερικές παραπομπές», έγραψε ο δικαστής Castel σε μια διαταγή που απαιτούσε από τη νομική ομάδα του άνδρα να δώσει εξηγήσεις.
Κατά τη διάρκεια αρκετών καταθέσεων, προέκυψε ότι η έρευνα δεν είχε εκπονηθεί από τον Peter LoDuca, τον δικηγόρο του ενάγοντος, αλλά από έναν συνάδελφό του στην ίδια δικηγορική εταιρεία. Ο Steven A Schwartz, ο οποίος είναι δικηγόρος για περισσότερα από 30 χρόνια, χρησιμοποίησε το ChatGPT για να αναζητήσει παρόμοιες προηγούμενες υποθέσεις.
Στη γραπτή δήλωσή του, ο Schwartz διευκρίνισε ότι ο κ. LoDuca δεν είχε συμμετάσχει στην έρευνα και δεν γνώριζε τον τρόπο διεξαγωγής της.
Ο Schwartz πρόσθεσε ότι «λυπάται πολύ» που βασίστηκε στο chatbot το οποίο, όπως είπε, δεν είχε χρησιμοποιήσει ποτέ πριν για νομική έρευνα και «δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».
Έχει ορκιστεί να μην χρησιμοποιήσει ποτέ την τεχνητή νοημοσύνη για να «συμπληρώσει» τη νομική του έρευνα στο μέλλον «χωρίς απόλυτη επαλήθευση της αυθεντικότητάς της».
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις