Ik denk dat de omstandigheden kunnen samenspannen om de kosten van LLM-tokens in het komende jaar of zo sterk te verhogen. Gezien hoe cruciaal deze tools zijn voor de dagelijkse operaties van mijn bedrijf, nemen we stappen om onze eigen inferentie-infrastructuur op te zetten, eerst met cloud-GPU-providers en uiteindelijk op locatie.
7,75K