pappasadrian έγραψε:οσο γαματη τεχνητη νοημοσυνη και αν φτιαξει κανεις, παντα θα υπαρχει ενα υποβαθρο κωδικα. και τωρα, απο αποψη κωδικα, τα προγραμματα μπορουν να λαβουν αποφασεις βασισμενα σε διαφορες παραμετρους
πχ
Κώδικας: Επιλογή όλων
if (get_gps()=="iran" && shape_recognition(thermal_scan())=="human" && metal_detection("on-given-target")==1)
{
do{
lock_missile(thermal_scan());
fire_missile();
}while (target_check("dead")==0);
και τα αμολας αυτα τα drones.
Η τεχνητή νοημοσύνη δεν λαμβάνει αποφάσεις σύμφωνα με τον κώδικα που έχει γράψει κάποιος. Έχει μία διαδικασία εκμάθησης και στην ουσία ο κώδικας γράφεται μόνος του μετά. Οπότε οι αποφάσεις που μπορεί να λάβει δεν περιορίζονται παρά μόνο από την είσοδο, την εμπειρία και τους γενικούς κανόνες. Αν στον γενικό κανόνα γράψεις ότι δεν επιτρέπεται να σκοτώσεις άνθρωπο, η απόφαση δεν θα είναι ποτέ αυτή, ακόμα και αν η εντολή που έχει πάρει είναι να σκοτώσει.
Τώρα, ο λόγος που στην τεχνητή νοημοσύνη πρέπει να μπει τέτοιος κανόνας είναι για να μην βλάψει τους δημιουργούς κάποια στιγμή. Όχι για να μην σκοτώσει τους εχθρούς. Για αυτό ακριβώς το λόγο και δεν θα χρησιμοποιηθούν εύκολα πλήρως αυτόνομα ρομπότ με ικανότητα να σκοτώνουν σε πόλεμο.