Εισαγωγή
Η τεχνητή νοημοσύνη στις μέρες μας, όπως έχει εισέλθει στη ζωή μας έτσι έχει εισέλθει δυναμικά και στον χώρο του HR ως ένα σύνολο εργαλείων που ήδη επηρεάζουν τον τρόπο με τον οποίο προσλαμβάνουμε, αξιολογούμε, αναπτύσσουμε και διαχειριζόμαστε τους ανθρώπους. Αυτή η τεχνολογική υπόσχεση δεν είναι πλέον αφηρημένη και στην πράξη, η συζήτηση γύρω από το AI στο HR δεν αφορά πλέον το αν θα χρησιμοποιηθεί, αλλά πώς, πού και με ποιους όρους θα το χρησιμοποιήσουμε. Διαβάζοντας κανείς τη διεθνή βιβλιογραφία διαπιστώνει σαφείς απαντήσεις ως προς τις δυνατότητες της αυτοματοποίησης, αλλά ταυτόχρονα αναδεικνύει και κρίσιμους περιορισμούς, ιδιαίτερα όταν η τεχνητή νοημοσύνη καλείται να συμμετάσχει σε αποφάσεις με έντονο ανθρώπινο, ηθικό και κοινωνικό αποτύπωμα.
Σ’ αυτό το πλαίσιο το μεγάλο ερώτημα είναι βαθιά οργανωσιακό και όχι τεχνολογικό και σχετίζεται με το ποιες λειτουργίες του HR μπορούν να υποστηριχθούν αποτελεσματικά από το AI και σε ποιες περιπτώσεις η ανθρώπινη κρίση δεν μπορεί, και δεν πρέπει να μπορεί, να υποκατασταθεί.
Η αυτοματοποίηση στο HR
Η εμπειρική βιβλιογραφία συγκλίνει στο ότι η τεχνητή νοημοσύνη αποδίδει καλύτερα σε διαδικασίες που χαρακτηρίζονται από επαναληψιμότητα, μεγάλο όγκο δεδομένων και σαφή κριτήρια. Σε τέτοια πλαίσια, η αυτοματοποίηση ενισχύει την αποδοτικότητα και τη συνέπεια των διαδικασιών και σε καμία περίπτωση δεν αλλοιώνει τη φύση της απόφασης. Χαρακτηριστικά παραδείγματα αφορούν τις διάφορες διοικητικές λειτουργίες όπως είναι η μισθοδοσία, η τήρηση των αρχείων, η διαχείριση των παροχών, το onboarding και ο προγραμματισμός των συνεντεύξεων. Οι έρευνες δείχνουν ότι η αυτοματοποίηση αυτών των διαδικασιών μειώνει τον διοικητικό φόρτο, περιορίζει τα σφάλματα και απελευθερώνει αρκετό χρόνο για πιο σύνθετες και στρατηγικές δραστηριότητες του HR.
Αντίστοιχα, σύμφωνα με τις έρευνες τα πεδία όπου η τεχνητή νοημοσύνη μπορεί να συμβάλει με μείωση στους χρόνους πρόσληψης και τη βελτίωση της εμπειρίας των υποψηφίων, τα συστήματα AI μπορούν να λειτουργήσουν υποστηρικτικά τόσο στα αρχικά στάδια της προσέλκυσης και επιλογής προσωπικού, μέσω της διαλογής των βιογραφικών, την αντιστοίχιση των δεξιοτήτων σύμφωνα με τις απαιτήσεις των ρόλων, την αυτοματοποιημένη επικοινωνία με τους υποψηφίους και τον προγραμματισμό των συνεντεύξεων. Το ΑΙ στα σημεία αυτά φαίνεται ότι δεν λαμβάνει αποφάσεις αξίας, αλλά επεξεργάζεται μόνο τις πληροφορίες σε κλίμακα όπου δύσκολα μπορεί να διαχειριστεί ο άνθρωπος.
Ιδιαίτερη έμφαση επίσης δίνεται και στον ρόλο του AI στην ανάλυση των δεδομένων του ανθρώπινου δυναμικού. Predictive analytics, people analytics και ανάλυση συναισθήματος εργαζομένων επιτρέπουν στο HR να εντοπίζει τάσεις, να προβλέπει κινδύνους αποχώρησης και να υποστηρίζει τον στρατηγικό σχεδιασμό με δεδομένα. Παράλληλα, οι έρευνες δείχνουν ότι η τεχνητή νοημοσύνη μπορεί να υποστηρίξει την εξατομίκευση της εμπειρίας των εργαζομένων προσφέροντας προτάσεις εκπαίδευσης, ανάπτυξης δεξιοτήτων και επαγγελματικής πορείας προσαρμοσμένες στα χαρακτηριστικά και τις ανάγκες του κάθε ατόμου. Σε όλες αυτές τις περιπτώσεις το AI λειτουργεί ως επιταχυντής και υποστηρικτής και δεν λειτουργεί ως υποκατάστατο της ανθρώπινης κρίσης.
Όρια και κίνδυνοι
Παρά τα οφέλη όμως, σύγχρονες βιβλιογραφικές πηγές, τόσο από ερευνητές όσο και από ανθρώπους του πεδίου αναφέρουν τους κινδύνους οι οποίοι ανακύπτουν όταν η τεχνητή νοημοσύνη εμπλέκεται άμεσα στη λήψη των αποφάσεων HR. Οι κίνδυνοι αυτοί καταγράφονται επανειλημμένα σε εμπειρικές μελέτες και δεν είναι θεωρητικοί. Ένας από τους πιο συχνά αναφερόμενους κινδύνους αφορά την αλγοριθμική μεροληψία, διότι τα συστήματα AI εκπαιδεύονται σε ιστορικά δεδομένα, τα οποία συχνά ενσωματώνουν κοινωνικές και οργανωσιακές ανισότητες με αποτέλεσμα, οι αλγόριθμοι να μπορούν να αναπαράγουν ή ακόμη και να ενισχύσουν διακρίσεις, ιδίως σε διαδικασίες πρόσληψης, αξιολόγησης και εξέλιξης. Παράλληλα, η έλλειψη διαφάνειας και εξηγησιμότητας πολλών αλγοριθμικών μοντέλων δυσχεραίνει την κατανόηση του πώς λαμβάνονται αυτές οι αποφάσεις. Επομένως, η αδυναμία εξήγησης ενός αποτελέσματος επηρεάζει άμεσα την αντίληψη της δικαιοσύνης, τη λογοδοσία και την εμπιστοσύνη τόσο των εργαζομένων όσο και των υποψηφίων και φεύγει από τα όρια του πιθανού τεχνικού ζητήματος.
Ένας ιδιαίτερης σημασίας παράγοντας είναι το φαινόμενο της υπερεμπιστοσύνης σε αυτοματοποιημένα συστήματα όπου εκεί η έρευνα δείχνει ότι οι άνθρωποι συχνά τείνουν να αποδέχονται τις συστάσεις του AI χωρίς επαρκή κριτική αξιολόγηση, ακόμη και όταν υπάρχουν ενδείξεις σφάλματος. Το automation bias αντί να συμπληρώνει την ανθρώπινη κρίση την περιορίζει, οδηγώντας έτσι σε αποφάσεις οι οποίες μπορεί να είναι λιγότερο ορθές ή λιγότερο δίκαιες.
Ταυτόχρονα όμως εγείρεται και το ιδιαίτερα σημαντικό ζήτημα με την εκτεταμένη χρήση των προσωπικών δεδομένων στο HR θίγοντας ζητήματα ιδιωτικότητας και ασφάλειας. Οι έρευνες εδώ αναδεικνύουν τον κίνδυνο της παραβίασης των προσωπικών δεδομένων, αλλά και την ψυχολογική επιβάρυνση των εργαζομένων όταν αυτοί αισθάνονται ότι αξιολογούνται ή παρακολουθούνται από διάφορα αλγοριθμικά συστήματα. Έτσι, η αίσθηση απώλειας ελέγχου, η ανησυχία για αντικατάσταση και η μείωση της αυτονομίας αποτελούν επαναλαμβανόμενα ευρήματα.
Αυτοί οι κίνδυνοι καθιστούν σαφές σε όσους εργάζονται σ’ αυτόν τον ιδιαίτερο κλάδο ότι η αυτοματοποίηση στο HR δεν μπορεί να αντιμετωπίζεται ως μια τεχνική αναβάθμιση, αλλά ως μια βαθιά οργανωσιακή αλλαγή με ηθικές, νομικές και κοινωνικές προεκτάσεις.
Υπεύθυνη χρήση του ΑΙ
Η διεθνής βιβλιογραφία, καθώς και τα σύγχρονα ρυθμιστικά και ηθικά πλαίσια, συγκλίνουν στην ανάγκη διατήρησης ουσιαστικής ανθρώπινης εποπτείας στα συστήματα AI τα οποία χρησιμοποιούνται στο HR. Αυτή η εποπτεία σαφώς και δεν νοείται ως μια τυπική επικύρωση των αποφάσεων, αλλά ως ένας ενεργός ρόλος καθ’ όλη τη διάρκεια του κύκλου λήψης αποφάσεων. Τα μοντέλα human-in-the-loop, human-on-the-loop και human-in-command περιγράφουν διαφορετικούς βαθμούς και χρονικές στιγμές ανθρώπινης παρέμβασης, όπου κοινός παρονομαστής είναι η διατήρηση της ανθρώπινης ευθύνης και της δυνατότητας παρέμβασης ή της ακύρωσης μιας απόφασης. Ωστόσο, υπογραμμίζεται ότι η ανθρώπινη εποπτεία δεν είναι από μόνη της πανάκεια. Οι άνθρωποι υπόκεινται σε γνωστικές προκαταλήψεις, μπορεί να δυσκολεύονται να κατανοήσουν σύνθετα συστήματα AI και συχνά επηρεάζονται από την ίδια την ύπαρξη της αλγοριθμικής σύστασης. Έτσι, παρά τους περιορισμούς αυτούς, η ανθρώπινη συμμετοχή παραμένει κρίσιμη, ιδιαίτερα σε αποφάσεις υψηλού ρίσκου, όπως είναι η πρόσληψη, η αξιολόγηση της απόδοσης, η προαγωγή ή η απόλυση. Είναι ιδιαίτερα σημαντικό να αφουγκραστούμε τα ευρήματα που δείχνουν ότι οι αποφάσεις που υποστηρίζονται από AI αλλά λαμβάνονται τελικά από ανθρώπους γίνονται αντιληπτές ως δικαιότερες και πιο αποδεκτές, ενισχύοντας έτσι την εμπιστοσύνη και τη νομιμοποίηση των διαδικασιών. Επομένως, η ηθική χρήση της τεχνητής νοημοσύνης στο HR προϋποθέτει σαφή οριοθέτηση των ρόλων, εκπαίδευση των ανθρώπων οι οποίοι καλούνται να ασκήσουν εποπτεία και θεσμικά πλαίσια ώστε να διασφαλίζεται λογοδοσία και διαφάνεια. Να θυμόμαστε ότι η ανθρώπινη κρίση δεν μπορεί να αντικατασταθεί αλλά μόνο να μετασχηματιστεί και από εκτελεστική να γίνει κριτική και εποπτική.
Επίλογος
Κλείνοντας, η τεχνητή νοημοσύνη φαίνεται ότι προσφέρει στο HR σημαντικές δυνατότητες αυτοματοποίησης, ανάλυσης και εξατομίκευσης, ιδίως σε διαδικασίες που είναι επαναλαμβανόμενες και βασίζονται σε δεδομένα. Ταυτόχρονα, η ερευνητική γνώση η οποία παίζει ιδιαίτερα κομβικό ρόλο, λόγω των νέων δεδομένων στις επιχειρήσεις αναδεικνύει σαφή όρια στη χρήση της, ιδιαίτερα όταν οι αποφάσεις αγγίζουν ζητήματα δικαιοσύνης, ηθικής και ανθρώπινης αξιοπρέπειας.
Το μέλλον του HR βρίσκεται στη συνειδητή επιλογή του πού αυτοματοποιούμε και πού διατηρούμε την ανθρώπινη απόφαση και όχι στην άκριτη υιοθέτηση της τεχνητής νοημοσύνης αλλά ταυτόχρονα ούτε στην απόρριψή της. Ο ρόλος επομένως του HR αναδεικνύεται ως θεματοφύλακας της ισορροπίας ανάμεσα στην τεχνολογική πρόοδο και τον άνθρωπο.




