BEIJING, 12 abr (Xinhua) -- El gigante tecnológico chino Alibaba Group Holding Ltd. dio a conocer su gran modelo de lenguaje alimentado por inteligencia artificial (IA), Tongyi Qianwen, sumándose a la competencia de los chatbots con un potencial rival para ChatGPT, según publica hoy miércoles la prensa de Beijing.
"Estamos en un momento crucial de la tecnología impulsado por la Inteligencia Artificial Generativa (IAG) y la computación en la nube, y los negocios en todos los sectores han empezado a abrazar la transformación inteligente para mantenerse en los primeros lugares", dice el informe del periódico en inglés China Daily, que cita a Zhang Yong, presidente y director general de Alibaba Group y CEO de Alibaba Cloud Intelligence.
Alibaba comenzó a investigar grandes modelos de lenguaje en 2019. El nuevo producto será puesto en operación inicialmente en DingTalk, la aplicación de mensajería en el entorno laboral de la empresa, con la tarea de resumir notas de reuniones, redactar poemas, escribir correos electrónicos y hacer borradores de propuestas comerciales, de acuerdo con el artículo.
Otras empresas líderes en el campo tecnológico de China, entre ellas Baidu Inc., Tencent Holdings Ltd. y NetEase, también se han subido al tren de los chatbots de IA.
El anuncio de Alibaba se realizó un día después de que SenseTime, firma pionera en el campo de la IA en China, lanzara su último juego de grandes modelos de lenguaje de IA, que lleva el nombre de "SenseNova" y cuenta con diversas habilidades, entre ellas visión computarizada, procesamiento de lenguaje natural y contenidos generados por IA, según el rotativo.
Baidu lanzó el mes pasado su gran modelo de lenguaje y un producto similar a ChatGPT, denominado Ernie Bot, añade.
El regulador chino del ciberespacio dio a conocer el martes un borrador de medidas para gestionar los servicios de IAG. Los proveedores serán responsables de la legitimidad de los datos utilizados para entrenar los productos de dicha tecnología, y deberán tomar medidas para evitar el contenido discriminatorio al momento de diseñar algoritmos, datos de entrenamiento y modelos de generación, y también al proporcionar servicios, señala el reportaje citando el documento, que fue publicado para solicitar opiniones de la ciudadanía.