IEI – Mustang-F100

IEI – Mustang-F100

1.    Descrição do produto:

A placa aceleradora Mustang-F100 é baseada na FPGA Arria 10. Oferecendo alto desempenho para a sua aplicação IA na borda. Sendo uma escolha perfeita para cargas de trabalho de inferência de deep learning em IA.

2.    Imagem do Produto

  f100

3.    Descrição completa:

A placa aceleradora Mustang-F100 é baseada na FPGA Arria 10. Oferecendo alto desempenho para a sua aplicação IA na borda. Sendo uma escolha perfeita para cargas de trabalho de inferência de deep learning em IA.

Características: 
- Eficiência energética, baixa latência. Kit de ferramentas OpenVINO ™ com suporte, dispositivo pronto para computação de ponta AI.
- FPGAs podem ser otimizados para diferentes tarefas de aprendizado profundo.
- Intel® FPGAs oferece suporte a vários pontos flutuantes e cargas de trabalho de inferência.

f1002
 
OpenVINO™ toolkit
O kit de ferramentas OpenVINO™ é baseado em redes neurais convolucionais (CNN - convolutional neural networks), o kit de ferramentas estende as cargas de trabalho em todo o hardware Intel® e maximiza o desempenho.
Ele pode otimizar o modelo de deep learning pré-treinado, como Caffe, MXNET, Tensorflow em arquivo binário IR e, em seguida, executar o mecanismo de inferência em hardware Intel® de forma heterogênea, como CPU, GPU, Intel® Movidius ™ Neural Compute Stick e FPGA.

f1003
 
Aplicações

f1004
 
Mustang-F100 Description

Saiba mais em:
Servidor de alto desempenho para processar dados localmente