
07 Dicembre 2022
"Un pezzo di futuro teletrasportato all’indietro nel 2021": così Nat Friedman, CEO di GitHub (celebre servizio di hosting per progetti software acquisito da Microsoft nel 2018), ha definito Copilot, ovvero lo strumento sviluppato in collaborazione con OpenAI in grado di assistere gli sviluppatori durante la scrittura del codice. Colpilot è capace di dare suggerimenti nel corso della compilazione che vanno da poche righe a intere funzioni.
Meet GitHub Copilot - your AI pair programmer. https://t.co/eWPueAXTFt pic.twitter.com/NPua5K2vFS
— GitHub (@github) June 29, 2021
Secondo GitHub, tuttavia, non si tratta di un tool che punta a sostituire gli sviluppatori: dopotutto, il nome stesso suggerisce chiaramente che Copilot è una risorsa creata invece per affiancarli migliorandone la produttività, oltre a facilitare l'apprendimento del codice, in particolare quando si inizia a prendere confidenza con un nuovo linguaggio.
Alla base della soluzione messa a punto da GitHub e OpenAI c'è un modello di addestramento fatto di miliardi di righe di codice tratte in larga parte da quelle disponibili pubblicamente proprio su GitHub. Il funzionamento somiglia a quello dei suggerimenti automatici con cui abbiamo a che fare tutti i giorni sulla tastiere dello smartphone: si comincia a scrivere codice, e a quel punto Copilot interviene suggerendo delle opzioni per completare la stringa o la funzione che possono essere esplorate, accettate o rifiutate.
GitHub Copilot va ad integrarsi in maniera diretta con Visual Studio Code: può essere installato come estensione oppure utilizzato in cloud tramite GitHub Codespaces. Allo stato attuale i linguaggi supportati in maniera più efficiente sono JavaScript, TypeScript, Ruby, Go e Python. Per il momento Copilot è disponibile solo come anteprima tecnica, ma GitHub ha tutta l'intenzione di farlo diventare un prodotto commerciale. L'utilizzo da parte dei primi utenti, comunque, consentirà allo strumento di diventare più intelligente e migliorare sulla base dei suggerimenti accettati e rifiutati.
Recensione Ecovacs Deebot X1e OMNI: tanto potenziale ma occhio al prezzo!
Youtube e il mistero del video più antico della piattaforma: ecco cosa è successo
Netflix, tutte le novità in arrivo a febbraio 2023
Macbook Pro M1 Max 15 mesi dopo: durata e consigli alla luce dei nuovi M2 | Video
Commenti
Ce ne sono di peggiori, quelli che usano tutti generic object invece che definire il tipo...
Ti sa male
Perdo più tempo a trovare il nome giusto alle routine che a scriverle :-)
Guarda, ho avuto dei professori che in design complessi scritti in verilog, usavano nomi simili per le variabili o i segnali interni.
Non si capiva assolutamente un caxxo, tanto che la prima cosa che facevo era sostituire i nomi con qualcosa di sensato.
Li odio questi programmatori, specialmente quando il loro codice deve essere visto da altre persone
ahhh se hanno imparato dal programmatore medio mi aspetto che mi proporrà ogni 2 righe la variabile pippo, la funzione temp, temp_temp, temp_temp_temp,
rinomando i file cin main_old, main__old, main_new, main_oldoldodl
:-P
Si io lo uso molto, l'unica cosa e' che (giustamente) si differenzia da progetto a progetto a da pc a pc (credo sia salvato nel .vs) mentre quello di visual studio code l'ho usato con python e java e credo sia sincronizzato. Quello su visual studio mi pare piu' potente (su vscode suggerisce che metodo usare, su vs anche refactor molto complessi)
Intellicode è utile alla fine?
nono, e' una cosa locale l'intellicode
Idem
considerando che github è di microzoz alla fine credo sia lo stesso servizio
Intanto mi sono messo nella lista per provarlo.
Qui si va ben oltre l'autocompletamento però, è più un sistema che mira a rimpiazzare tutta la parte di boilerplate che uno è costretto a scrivere, che sarebbe già tanta roba.
Anche se in realtà ci sono già piattaforme low-code per questo
Non lo so ma immagino che potrebbe essere.
Il punto è che sta roba non può girare in locale per il momento, deve lavorare in real-time con un modello che ha 175 miliardi di parametri.
Credo non basti nemmeno una A100 da 40GB di RAM per inferire con un modello del genere.
Anche immaginando che usino una versione distilled rimane sempre un modello colossale.
Non a caso gira su Azure.
Open source e gente che lo utilizza saranno una combo letale mi sa…
Non oggi ma tra qualche decina d’anni chissà
Ha pagato un miliardino per averlo. Il nuovo IntelliSense su Vs 2022 è basato anch’esso su GPT 3?
Mi preparo ad essere rimpiazzato
la fiera dell'ottimizzazione in soldoni :P
Mmmh, non saprei definire se sia veramente utile o no...
Gli sviluppatori esperti hanno già a disposizione diverse librerie di funzioni e gli strumenti attuali forniscono già l'autocompletamento, mentre gli sviluppatori novizi non imparano niente se accettano del codice che gli viene già fornito pronto e funzionante...
Si il problema è che ha 175 miliardi di parametri.
Magari il prossimo avrà 1000 miliardi di parametri, ma il problema rimane.
Rimane più che altro il dubbio su quanto questi modelli giganti soffrano di overfitting (probabilmente molto).
Sul fatto che ci siano ancora limitazioni e si possa migliorare non ci piove, ma ha permesso di fare un bel balzo in avanti.
E' molto forte, non incredibile, purtroppo.
Sembra che purtroppo anche lui spesso non "capisca" cosa faccia, non ci sia una logica dietro, ma memorizzi i dati vista la quantità ridicola di parametri.
Anche perchè è sostanzialmente un GPT-2 più grosso e allenato su più dati.
https://medium.com/analytics-vidhya/a-simple-explanation-of-gpt-3-571aca61208c
Mi sono iscritto per provarlo, ma sono sicuro che completerà abbastanza bene il boilerplate che scrivono tutti ma fallirà nel resto.
Vedremo
GPT-3 è incredibile. Son sicuro che con il tempo tireranno fuori qualcosa di fantastico e questo Copilot promette bene.
Ed ecco a voi GPT-3 all'opera. Peccato che MS se lo sia tenuto tutto per sé.
https://en.wikipedia.org/wiki/GPT-3