Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Verrataan GPT-5:tä ja Claude Opus-4.1:tä koodin luomiseen:
Tänään rakennamme CodeArenaa, jossa voit verrata mitä tahansa kahta code-gen-mallia vierekkäin.
Tekninen pino:
- @LiteLLM orkestrointiin
- @Cometml's Opik rakentaa eval-putken
- @OpenRouterAI käyttää huippuluokan malleja
- @LightningAI CodeArenan isännöintiin
Mennään!🚀
Tässä on työnkulku:
- Valitse mallit koodin luontivertailua varten
- Tuo GitHub-arkisto ja tarjoa se kontekstina LLM:ille
- Käytä konteksti + kysely koodin luomiseen molemmista malleista
- Arvioi luotua koodia Opikin G-Evalin avulla
Toteutetaan tämä!
0️⃣ Lataa API-avaimet
Tässä demossa pääsemme GPT-5:een openai:n kautta ja muihin malleihin OpenRouterin avulla.
Tallenna tarvittavat avaimet .env-tiedostoon, jotta ne latautuvat ympäristöön.
Tarkista tämä 👇

1️⃣ GitHub-säilön käsittely
GitIngestin avulla voimme muuntaa käyttäjän määrittämän GitHub-säilön suoraviivaiseksi, LLM-valmiiksi tekstidataksi.
LLM:t käyttävät näitä tietoja kontekstina koodin luomiseen vastauksena käyttäjän kyselyyn.
Tsekkaa tämä 👇

2️⃣ Koodin oikeellisuuden mittari
Luomme nyt arviointimittarit tehtäväämme Opikin G-Evalin avulla.
Tämä mittari arvioi luodun koodin laatua ja oikeellisuutta vertaamalla sitä viitepohjan totuuskoodiin.
Tsekkaa tämä 👇

3️⃣ Koodin luettavuusmittari
Tämä mittari varmistaa, että koodi noudattaa oikeaa muotoilua ja yhdenmukaisia nimeämiskäytäntöjä.
Se arvioi myös kommenttien ja doc-merkkijonojen laatua, mikä tekee koodista helposti ymmärrettävän.
Tsekkaa tämä 👇

4️⃣ Parhaiden käytäntöjen mittari
Tämä mittari varmistaa, että koodi on modulaarista, tehokasta ja toteuttaa asianmukaisen virheenkäsittelyn.
Tsekkaa tämä 👇

5️⃣ Luo mallivastaus
Nyt olemme kaikki valmiita tuottamaan vastauksia molemmista malleista.
Määritämme käytetyn koodikannan kontekstiksi kehotteessa ja suoratoistamme vastaukset molemmista malleista rinnakkain.
Tarkista tämä 👇

6️⃣ Arvioi luotu koodi
Arvioimme molempien mallien tuottamia vastauksia yllä mainittujen mittareiden avulla ja annamme yksityiskohtaiset perustelut kullekin mittarille.
Tsekkaa tämä👇

7️⃣ Streamlit käyttöliittymä
Lopuksi luomme intuitiivisen Streamlit-käyttöliittymän, joka yksinkertaistaa molempien mallien vertailua ja arviointia yhdessä käyttöliittymässä.
Tarkista tämä 👇

Aika testata..
Kysely 1: Rakenna MCP-palvelin, jonka avulla tekoälyagentit ja chatbotit voivat lukea koodia, hallita ongelmia/PR:iä, analysoida säilöjä ja automatisoida työnkulkuja GitHubissa.
Kolmella mittarilla: oikeellisuus, luettavuus ja parhaat käytännöt:
- GPT-5 pisteet: 9
- Calude Opus-4.1 pisteet: 8.67

CodeArenan avulla voit verrata mitä tahansa kahta mallia. Vertailin myös lyhyesti GPT-5:tä Qwen3-Coderiin!
Kysely 2: MCP-palvelin muodostaa yhteyden Notionin API:hen, jolloin tekoäly voi hallita muistiinpanoja, tehtäväluetteloita ja tietokantoja tuottavuuden ja organisoinnin parantamiseksi.
Tsekkaa tämä 👇

Löydät kaiken koodin ja kaiken mitä tarvitset CodeArenan käyttämiseen alla olevasta @LightningAI Studiosta!
Kokeile sitä:
Lopuksi tässä on 10 muuta arviointia, jotka suoritin Opikilla MCP-palvelimien rakentamisessa.
- GPT-5 voitti 6 tapauksessa.
- Claude Opus 4.1 voitti loput 4
Kaiken kaikkiaan molemmat mallit ovat poikkeuksellisen hyviä, ja GPT-5 on hieman parempi.
Tarkista tämä 👇

Jos se oli mielestäsi oivaltava, jaa se uudelleen verkostosi kanssa.
Etsi minut → @akshay_pachaar✔️
Lisää näkemyksiä ja opetusohjelmia LLM:istä, tekoälyagenteista ja koneoppimisesta!

8.8. klo 22.31
Verrataan GPT-5:tä ja Claude Opus-4.1:tä koodin luomiseen:
34,21K
Johtavat
Rankkaus
Suosikit