Favio Gonzalez Alonso[2o Chichen-Itzá], Kevin Alejandro Ceja Granados[2o Chichen-Itzá], Alan Alexander Castañeda Ramírez[2o Chichen-Itzá]
En los últimos años, la inteligencia artificial (IA) ha transformado la toma de decisiones éticas en diversas áreas, desde la atención médica hasta la justicia penal. La capacidad de la IA para analizar grandes volúmenes de datos permite identificar patrones y hacer predicciones, lo que puede mejorar la objetividad en decisiones complejas. Sin embargo, este avance también ha suscitado preocupaciones sobre la ética y la responsabilidad.
Uno de los principales desafíos es el sesgo inherente a los algoritmos, que puede perpetuar desigualdades y discriminación. Si los datos utilizados para entrenar sistemas de IA reflejan prejuicios sociales, las decisiones resultantes pueden ser injustas. Por ejemplo, en la contratación o la evaluación de riesgos penales, la IA puede favorecer a ciertos grupos demográficos, generando disparidades.
Además, la opacidad de muchos sistemas de IA dificulta la comprensión de cómo se toman las decisiones, lo que plantea interrogantes sobre la rendición de cuentas. A medida que las empresas adoptan estas tecnologías, la necesidad de marcos regulatorios y éticos se vuelve más urgente. La colaboración entre ingenieros, filósofos y legisladores es crucial para desarrollar directrices que aseguren un uso justo y transparente de la IA.
In recent years, artificial intelligence (AI) has transformed ethical decision-making in diverse areas, from healthcare to criminal justice. AI’s ability to analyze large volumes of data allows it to identify patterns and make predictions, which can improve objectivity in complex decisions. However, this advancement has also raised concerns about ethics and accountability.
One of the main challenges is the bias inherent in algorithms, which can perpetuate inequalities and discrimination. If the data used to train AI systems reflects societal biases, the resulting decisions can be unfair. For example, in hiring or criminal risk assessment, AI can favor certain demographic groups, creating disparities.
Furthermore, the opacity of many AI systems makes it difficult to understand how decisions are made, raising questions about accountability. As companies adopt these technologies, the need for regulatory and ethical frameworks becomes more urgent. Collaboration between engineers, philosophers, and policymakers is crucial to developing guidelines that ensure fair and transparent use of AI.
Ipan nopa xiuitl tlen panotok, nopa inteligencia artificial (IA) kipatlatok nopa tlajtolsenkaualistli tlen kuali ipan miak tlamantli, tlen tlapajtilistli uan tlen tlajtolsenkaualistli tlen tlajtlakoli. In AI uelilistli tlen ika kiixtoma miak tlamantli tlen tlajtoli kipaleuia ma kiixmati nopa tlamantli uan ma kichiua tlajtolpanextili, tlen uelis kiyektlalis nopa tlamachilistli ipan tlajtolsenkaualistli tlen ouij. Maske, ni tlamantli nojkia kichijki ma timotekipachokaj tlen ética uan tlen responsabilidad.
Se tlen nopa ueyi kuesoli eli nopa sesgo tlen kipiaj nopa algoritmos, tlen uelis kichiuas ma onka tlaiyocatlalili uan ma onka tlaiyocatlalili. Tlaj nopa datos tlen motekiuia para kinmachtis nopa sistemas de IA kinextia sesgos sociales, nopa decisiones tlen kikixtiaj uelis amo xitlauak. Se neskayotl, ipan tlatekipanojketl o ipan tlayejyekoli tlen riesgo criminal, AI uelis kin paleuis se keski grupos demográficos, uan ki chiuas ma onka tlamantli tlen ax sanse.
Nojquiya, nopa tlauili tlen kipiaj miak sistemas tlen IA kichiua ma ouij tijkuamachilisej kenijkatsa mochiuaj tlajtolsenkaualistli, uan kichiua ma timotlajtlanikaj tlen moneki tijchiuasej. Kej nopa empresas kiseliaj ni tecnologías, moneki se marcos regulatorios uan éticos tlen tlauel moneki. Nopa tekitl tlen kichiuaj ingenieros, filósofos uan tlen kichijchiuaj políticas tlauel ipati pampa kichijchiuasej tlanauatili tlen kichiuas ma motekiui xitlauak uan amo ma nesi nopa IA.
La Inteligencia Artificial (IA) ha emergido como una herramienta fundamental en la ciencia moderna debido a su capacidad para analizar grandes volúmenes de datos, optimizar procesos y ofrecer soluciones a problemas complejos que son difíciles de abordar con métodos tradicionales.
La inteligencia artificial (IA) ha avanzado de manera significativa en las últimas décadas, revolucionando numerosos campos, desde la medicina hasta las finanzas. Sin embargo, uno de los desafíos más apremiantes que enfrentan los desarrolladores y los usuarios de IA es la capacidad de estas tecnologías para tomar decisiones éticas. A medida que los sistemas de IA se vuelven más autónomos e influyentes, la cuestión de cómo estas máquinas pueden y deben tomar decisiones éticas se convierte en un tema de creciente importancia.
Si logramos identificar la influencia de la inteligencia artificial en la toma de decisiones éticas, podremos comprender mejor sus implicaciones y desafíos en diferentes contextos. Esto nos permitirá analizar cómo la IA afecta la equidad y la justicia en decisiones críticas, y desarrollar estrategias para mitigar los riesgos asociados, asegurando un uso responsable y ético de estas tecnologías en la sociedad.
Informar acerca de cómo la IA puede afectar nuestras decisiones éticas.
Identificar y explicar la influencia de la inteligencia artificial en la toma de decisiones éticas para entender sus implicaciones.
Educación de calidad
Industria, innovación e infraestructura
Realizamos una entrevista a la profesora Nancy Leticia Cruz Pichardo que es licenciada en comunicación y conoce bastante sobre el tema de ética social, Nancy es una docente en el plantel de Centro Escolar Zamá y cuenta con más de 15 años de experiencia, en la entrevista ella nos compartió que considera que la inteligencia artificial debe tener leyes que la limiten para evitar posibles complicaciones a un futuro, también nos compartió que la IA no debe tomar decisiones por nosotros en todos los ámbitos sociales, y que se le tiene que dar un correcto uso.
También realizamos otra entrevista al Profesor Samuel quien nos comentó que a lo largo de este último decenio la Inteligencia Artificial ha evolucionado y tenido un gran impacto en la sociedad y el recomienda usarla en cualquier ámbito pero con el uso adecuado.
Efectuamos una investigación sobre la inteligencia artificial en la toma de decisiones éticas. Para ello, revisamos literatura relevante y realizamos dos entrevistas. La primera fue a una licenciada en comunicación, quien nos comentó que es fundamental hacer un buen uso de la IA y que debe contar con limitaciones para evitar abusos. La segunda entrevista fue con un experto en programación, quien destacó que la inteligencia artificial debe utilizarse, pero siempre de manera ética y correcta. Estas perspectivas nos ayudaron a comprender la importancia de establecer un marco ético para la implementación de la IA en la toma de decisiones.
La inteligencia artificial (IA) ha avanzado significativamente, planteando desafíos en la toma de decisiones éticas. Nuestras busqueda de informacion resaltaron que, aunque la IA puede optimizar procesos, también puede generar decisiones problemáticas. La licenciada enfatizó la necesidad de un marco legal que limite su autonomía y priorice el juicio humano.
Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press
UNESCO. (2021). Recommendation on the ethics of artificial intelligence. Recuperado de https://www.unesco.org/es/artificial-intelligence/recommendation-ethics.