A fabricante de chips NVIDIA está apoiando ainda mais a fabricação de equipamentos para desenvolvedores de IA, que adquire mais de US $ 320 milhões na empresa de dados artificiais Cretell, A. Relatado no fio Quarta-feira.

A criação de empresas de IA estão lutando para encontrar dados adequados para treinar e melhorar seus modelos; portanto, a demanda por criação de dados será aumentada.

Segundo o relatório, a equipe de Cretell será dobrada na NVIDIA. Cretell, que cria dados artificiais ou simulados para o treinamento de amostra de IA, aumenta as ofertas da NVIDIA para desenvolvedores de IA.

Nvidia se recusou a comentar o relatório.

Por que dados artificiais são importantes

Um grande modelo de idioma requer muitos dados para modelos de IA que criam treinamento como o Chadjift da Openini. Os dados do mundo real podem causar problemas para os desenvolvedores de IA-ou seja, pode ser alto e não suficiente.

As empresas de IA concordam com a gama de treinamento disponível gratuito, levando a conflitos sobre o uso do conteúdo de direitos autorais. Centenas de atores, escritores e diretores enviaram uma carta aberta ao Escritório de Política de Ciência e Tecnologia do governo Trump para levantar suas preocupações com o uso de dados de direitos autorais. Atualmente, as petições de Opanyai para o governo Permitir mais acesso aos direitos autorais Para treinar modelos de IA, caso contrário, as empresas americanas serão deixadas pela China.

Veja isso: GTC 2025 da NVIDIA NOTA IMPORTANTE: Todos os destaques em 16 minutos

Os dados artificiais também valorizam a proteção de informações pessoais. Cretell diz que seus dados artificiais podem ser usados ​​para treinar modelos e ferramentas sem expor informações importantes ou pessoais – por exemplo, dados de assistência médica que não identificam indivíduos e violam as leis de privacidade.

Há preocupações sobre o uso de tais dados no treinamento de amostra. De fato, violar as informações que não aumentam a oportunidade de se livrar dessas coisas. Se o problema for adequado, pode causar um problema chamado colapso e, quando o modelo se tornar mais preciso, é inútil.

Link da fonte