Αντιμέτωποι με τη Δικαιοσύνη δικηγόροι που χρησιμοποίησαν την τεχνητή νοημοσύνη σε υπόθεσή τους
Και οι δύο υποστήριξαν πως ενήργησαν καλόπιστα
Δικαστής επέβαλε πρόστιμο 5.000 δολαρίων σε δύο δικηγόρους και σε ένα δικηγορικό γραφείο μετά από πλαστές αναφορές που κατέθεσαν σε δικαστική υπόθεση.
Συγκεκριμένα, ένας περιφερειακός δικαστής στο Μανχάταν διέταξε τον Steven Schwartz, τον Peter LoDuca και τo δικηγορικό τους γραφείο Levidow, Levidow & Oberman να πληρώσουν το πρόστιμο μετά από πλαστή νομική έρευνα που πραγματοποίησε η εφαρμογή τεχνητής νοημοσύνης GhatGPT και χρησιμοποιήθηκε σε αγωγή για τραυματισμό εις βάρος αεροπορικής εταιρείας.
Ο Schwartz είχε παραδεχτεί ότι το ChatGPT, το γνωστό chatbot που παράγει αληθοφανείς απαντήσεις κειμένου, επινόησε έξι υποθέσεις κι αυτές υποβλήθηκαν από τους δικηγόρους ως παραπομπές όταν κατέθεσαν σε ένα νομικό υπόμνημα σε μια υπόθεση κατά της κολομβιανής αεροπορικής εταιρείας Avianca.
Ο δικαστής είπε σε γραπτή γνωμάτευση ότι δεν υπήρχε τίποτα «εγγενώς ακατάλληλο» σχετικά με τη χρήση τεχνητής νοημοσύνης σε νομικές εργασίες, αλλά οι δικηγόροι έπρεπε να διασφαλίσουν ότι τα αρχεία τους ήταν ακριβή.
Ο ίδιος σημείωσε ότι οι δικηγόροι και η εταιρεία τους «εγκατέλειψαν τις ευθύνες τους όταν υπέβαλαν ανύπαρκτες δικαστικές γνωμοδοτήσεις με πλαστά αποσπάσματα και παραπομπές που δημιουργήθηκαν από το εργαλείο τεχνητής νοημοσύνης ChatGPT και στη συνέχεια συνέχισαν να υποστηρίζουν τις ψεύτικες απόψεις αφού δικαστικές εντολές έθεσαν υπό αμφισβήτηση την ύπαρξή τους».
Το δικηγορικό γραφείο στη σχετική ανακοίνωσή του ανέφερε πως οι δύο δικηγόροι «με σεβασμό» διαφωνούν με το δικαστήριο σχετικά με την κρίση του ότι ενήργησαν κακόπιστα.
«Κάναμε ένα καλόπιστο λάθος που δεν πιστέψαμε ότι ένα κομμάτι της τεχνολογίας θα μπορούσε να φτιάχνει υποθέσεις από το πουθενά» υπογραμμίζει στην ανακοίνωση.
Σύμφωνα με τον Guardian , το ChatGPT είχε προτείνει αρκετές περιπτώσεις που αφορούσαν αεροπορικά ατυχήματα που ο Schwartz δεν μπόρεσε να βρει μέσω των συνηθισμένων μεθόδων που χρησιμοποιούνται στο δικηγορικό του γραφείο.
Αρκετές από αυτές δεν ήταν πραγματικές ή αφορούσαν αεροπορικές εταιρείες που δεν υπήρχαν.
Τα chatbots όπως το ChatGPT που έχει αναπτυχθεί από την αμερικανική εταιρεία OpenAI μπορεί να είναι επιρρεπή σε ανακρίβειες. Χαρακτηριστικό παράδειγμα όταν κατηγόρησε ψευδώς έναν Αμερικανό καθηγητή νομικής για σεξουαλική παρενόχληση και ανέφερε μια ανύπαρκτη έκθεση της Washington Post στη διαδικασία.
Τον Φεβρουάριο, ένα διαφημιστικό βίντεο για τον αντίπαλο του ChatGPT, το Bard της Google, έδωσε ανακριβή απάντηση σε ένα ερώτημα σχετικά με το διαστημικό τηλεσκόπιο James Webb, εγείροντας ανησυχίες ότι η εταιρεία αναζήτησης είχε βιαστεί πολύ να ξεκινήσει μια απάντηση στο επίτευγμα της OpenAI.
Τα chatbots εκπαιδεύονται σε έναν τεράστιο όγκο δεδομένων που λαμβάνονται από το διαδίκτυο, αν και οι πηγές δεν είναι διαθέσιμες σε πολλές περιπτώσεις.
- Τα ζώδια σήμερα: Γλύκανε μωρέ λίγο, μην είσαι σαν κακό χρόνο να’χεις
- Φούσκωμα μετά το φαγητό, αυτή η γιορτινή μάστιγα
- Χριστουγεννιάτικα πάρτι: Οδηγός επιβίωσης στις βαρετές συγκεντρώσεις
- Η καλύτερή μου φίλη εδώ και 40 χρόνια έχει μια στρεβλή εντύπωση για μένα – Θα το λύσουμε;
- Economist: Οι εργαζόμενοι αγαπούν τον Τραμπ, τα συνδικάτα πρέπει να τον φοβούνται
- Φάρμακα για απώλεια βάρους: Γιατί στέλνουν τους Αμερικανούς στον γιατρό