La Inteligencia Artificial (IA) es una tecnología que imita capacidades humanas como el aprendizaje y la toma de decisiones.
Sus beneficios incluyen eficiencia, automatización y personalización, mientras que sus perjuicios abarcan riesgos de empleo, privacidad y dependencia tecnológica.
Aunque la Inteligencia Artificial tiene beneficios importantes como herramienta de información y apoyo, debe utilizarse con límites claros y de forma responsable.
El uso excesivo de la IA puede limitar el desarrollo de una habilidad humana que permite analizar y evaluar cualquier información.
Podemos observar que constantemente aparecen nuevas plataformas o versiones mejoradas de las mismas, la cual se está convirtiendo actualmente en una especie de confidente digital.
Con el avance de la tecnología, cada vez son más frecuentes los casos de personas que recurren a plataformas como ChatGPT, Gemini, Meta, DeepSeek, entre otros, para desahogarse, pedir consejos sobre las relaciones, salud mental, trabajo, condiciones médicas o incluso decisiones personales.
Una cantidad considerable de la información médica proporcionada por cinco chatbots populares es inexacta e incompleta, y la mitad de las respuestas a preguntas claras basadas en la evidencia son “algo” o “muy” problemáticas, señala un estudio que pública BMJ Open.
Los investigadores del Instituto Lundquist para la Innovación Biomédica (EE. UU.) advierten de que el despliegue continuado de estos chatbots sin una labor de educación pública ni supervisión corre el riesgo de amplificar la desinformación.
El equipo analizó recientemente el nivel de precisión que ofrecían en ámbitos de la salud y la medicina cinco chatbots de IA generativa populares y de acceso público: Gemini (Google); DeepSeek (High-Flyer); Meta AI (Meta); ChatGPT (OpenAI); y Grok (xAI).
El pensamiento crítico suele definirse como la capacidad que tenemos los seres humanos de analizar y valorar una determinada información o afirmación, de manera reflexiva sin aceptarla de entrada como verdadera, para poder formarnos un juicio, llegar a una conclusión, encontrar una solución o tomar una decisión de una manera lo más fundamentada posible.
Distintos especialistas vienen advirtiendo que esta capacidad clave de la inteligencia humana podría estar siendo erosionada desde edades muy tempranas.
Esto así, por la utilización excesiva de otro tipo de inteligencia, la artificial, que está basada en los algoritmos y programas informáticos, en vez de fundamentarse en el funcionamiento de nuestras neuronas cerebrales.
El aumento de esta tendencia, comienza a preocupar a especialistas en salud mental, como lo refleja el psiquiatra, escritor y psicoterapeuta José Miguel Gómez.
Esta realidad ya se refleja en las consultas médicas y psicológicas, donde pacientes llegan con diagnósticos y recomendaciones obtenidas a través de plataformas de IA.
Muchos pacientes que llegan donde los especialistas buscando una segunda o tercera opinión del profesional, diciendo que han sido diagnosticados por ChatGPT.
Algunos incluso acuden con medicamentos "preseleccionados" por la herramienta y con información sobre supuestos efectos secundarios.
Estas plataformas pueden ofrecer respuestas erradas o incompletas, advierte el reputado profesional de la conducta.
"ChatGPT te da un marco referencial, general, de algunos conceptos, pero no todos los estudios y todas las referencias son avaladas desde el punto de vista académico-científico", afirma el doctor Gómez.
Según New Atlas, el nuevo navegador de OpenAI con Inteligencia Artificial, el cual competirá con Google, los expertos en robótica se preguntan si la inteligencia artificial (IA) necesitaría un cuerpo, para poder acercarse a la inteligencia humana, y, de ser así, de qué tipo de robot se trataría.
Es innegable, la realidad es que la Inteligencia Artificial (IA) cambió el mundo, la forma en que se analiza la data y hasta la manera en que se construye el pensamiento, por lo que urge legislar para regular su uso y su desarrollo, sin que se lacere la democracia.
“La IA es buena dependiendo las manos en las que se coloque y cuáles son las herramientas de carácter legal para establecer puntos de partida y límites para su uso correcto”, así lo considera Guido Gómez Mazara, presidente del Consejo Directivo del Instituto Dominicano de las Telecomunicaciones (Indotel).
Comentarios0
No hay comentarios aún. ¡Sé el primero en comentar!