Δικηγόρος χρησιμοποίησε το ChatGPT και τώρα βρίσκεται στη θέση του κατηγορούμενου
Όπως ισχυρίστηκε ο ίδιος, δεν ήξερε πως η εφαρμογή μπορούσε να αναπαράγει αναληθές περιεχόμενο
- Μιας διαγραφής… μύρια έπονται για τη Ν.Δ.- Νέες εσωκομματικές συνθήκες και «εν κρυπτώ» υπουργοί
- Τι βλέπει η ΕΛ.ΑΣ. για τη γιάφκα στο Παγκράτι – Τα εκρηκτικά ήταν έτοιμα προς χρήση
- Την άρση ασυλίας Καλλιάνου εισηγείται η Επιτροπή Δεοντολογίας της Βουλής
- Οι καταναλωτικές συνήθειες των Ελλήνων κατά τη διάρκεια της Black Friday
Αντιμέτωπος με τη Δικαιοσύνη θα βρεθεί ένας δικηγόρος από τη Νέα Υόρκη, καθώς παραδέχτηκε πως χρησιμοποίησε το ChatGPT για την επίλυση μίας υπόθεσής του.
Το κουβάρι άρχισε να ξετυλίγεται όταν ο δικαστής ανακάλυψε μία κατάθεση η οποία αναφερόταν σε νομικές υποθέσεις οι οποίες δεν υπήρχαν.
Ο δικηγόρος που χρησιμοποίησε την εφαρμογή τεχνητής νοημοσύνης είπε στο δικαστήριο ότι «αγνοούσε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».
Σημειώνεται ότι το ChatGPT δημιουργεί πρωτότυπο κείμενο κατόπιν αιτήματος, αλλά συνοδεύεται από προειδοποιήσεις ότι μπορεί να «παράγει ανακριβείς πληροφορίες».
Η αρχική υπόθεση αφορούσε έναν άνδρα που μήνυσε μια αεροπορική εταιρεία για υποτιθέμενο προσωπικό τραυματισμό. Η νομική ομάδα του υπέβαλε μια σύντομη ενημέρωση που ανέφερε προηγούμενες δικαστικές υποθέσεις σε μια προσπάθεια να αποδείξει, γιατί η υπόθεση πρέπει να προχωρήσει.
Ωστόσο, σύμφωνα με το BBC οι δικηγόροι της αεροπορικής εταιρείας είπαν στον δικαστή πως δεν μπορούσαν να βρουν αρκετές από τις υποθέσεις που ανέφερε η αντίπαλη πλευρά.
«Έξι από τις υποβληθείσες υποθέσεις φαίνεται να είναι ψεύτικες δικαστικές αποφάσεις με ψεύτικα παραθέματα και ψεύτικες εσωτερικές παραπομπές», έγραψε ο δικαστής Castel σε μια διαταγή που απαιτούσε από τη νομική ομάδα του άνδρα να δώσει εξηγήσεις.
Κατά τη διάρκεια αρκετών καταθέσεων, προέκυψε ότι η έρευνα δεν είχε εκπονηθεί από τον Peter LoDuca, τον δικηγόρο του ενάγοντος, αλλά από έναν συνάδελφό του στην ίδια δικηγορική εταιρεία. Ο Steven A Schwartz, ο οποίος είναι δικηγόρος για περισσότερα από 30 χρόνια, χρησιμοποίησε το ChatGPT για να αναζητήσει παρόμοιες προηγούμενες υποθέσεις.
Στη γραπτή δήλωσή του, ο Schwartz διευκρίνισε ότι ο κ. LoDuca δεν είχε συμμετάσχει στην έρευνα και δεν γνώριζε τον τρόπο διεξαγωγής της.
Ο Schwartz πρόσθεσε ότι «λυπάται πολύ» που βασίστηκε στο chatbot το οποίο, όπως είπε, δεν είχε χρησιμοποιήσει ποτέ πριν για νομική έρευνα και «δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».
Έχει ορκιστεί να μην χρησιμοποιήσει ποτέ την τεχνητή νοημοσύνη για να «συμπληρώσει» τη νομική του έρευνα στο μέλλον «χωρίς απόλυτη επαλήθευση της αυθεντικότητάς της».
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις