Informazioni sul modello precedente

Questa pagina fornisce informazioni sui modelli di AI generativa legacy su Vertex AI. I modelli di una famiglia di modelli legacy non vengono più aggiornati con le nuove versioni stabili. Dopo che tutte le versioni stabili di un modello legacy quando raggiunge la data di interruzione, la famiglia di modelli non è più supportata.

Modelli API PaLM

La seguente tabella riassume i modelli legacy dell'API PaLM:

Nome modello Descrizione Proprietà del modello Assistenza per l'ottimizzazione
PaLM 2 per Text
(text-bison)
Ottimizzato per seguire le istruzioni del linguaggio naturale ed è adatto a varie attività linguistiche, come classificazione, riassunto, ed estrazione. Numero massimo di token di input: 8192
Numero massimo di token di output: 1024
Dati di addestramento: fino a febbraio 2023
Supervisionato:
RLHF: (Anteprima)
Distillazione: No
PaLM 2 per Text (text-unicorn) Il modello di testo più avanzato della famiglia di modelli PaLM da utilizzare con complesse attività legate al linguaggio naturale. Numero massimo di token di input: 8192
Numero massimo di token di output: 1024
Dati di addestramento: fino a febbraio 2023
Supervisionato: no
RLHF: No
Distillazione: (Anteprima)
PaLM 2 per Text 32k
(text-bison-32k)
Ottimizzato per seguire le istruzioni del linguaggio naturale ed è adatto a in una varietà di attività relative alle lingue. Numero massimo di token (input + output): 32.768
Numero massimo di token di output: 8192
Dati di addestramento: fino ad agosto 2023
Supervisionato:
RLHF: No
Distillazione: No
PaLM 2 per Chat
(chat-bison)
Ottimizzato per casi d'uso di conversazioni in più passaggi. Numero massimo di token di input: 8192
Numero massimo di token di output: 2048
Dati di addestramento: fino a febbraio 2023
Numero massimo di turni : 2500
Supervisionato:
RLHF: No
Distillazione: No
PaLM 2 per Chat 32k
(chat-bison-32k)
Ottimizzato per casi d'uso di conversazioni in più passaggi. Numero massimo di token (input + output): 32.768
Numero massimo di token di output: 8192
Dati di addestramento: fino ad agosto 2023
N. massimo di turni : 2500
Supervisionato:
RLHF: No
Distillazione: No

Modelli di API Codey

La tabella seguente riassume i modelli legacy delle API Codey. Tieni presente che Il modello di completamento del codice code-gecko non è un modello precedente.

Nome modello Descrizione Proprietà del modello Assistenza per l'ottimizzazione
Codey for Codey Generation
(code-bison)
Un modello ottimizzato per generare codice sulla base di una descrizione in linguaggio naturale del codice desiderato. Ad esempio, può generare il test delle unità di una funzione. Numero massimo di token di input: 6144
Numero massimo di token di output: 1024
Supervisionato:
RLHF: No
Distillazione: No
Codey for Codey Generation 32k
(code-bison-32k)
Un modello ottimizzato per generare codice sulla base di una descrizione in linguaggio naturale del codice desiderato. Ad esempio, può generare il test delle unità di una funzione. Numero massimo di token (input + output): 32.768
Numero massimo di token di output: 8192
Supervisionato:
RLHF: No
Distillazione: No
Codey for Codey Chat
(codechat-bison)
Un modello ottimizzato per il chatbot che aiutano a rispondere a domande relative al codice. Numero massimo di token di input: 6144
Numero massimo di token di output: 1024
Supervisionato:
RLHF: No
Distillazione: No
Codey for Codey Chat 32k
(codechat-bison-32k)
Un modello ottimizzato per il chatbot che aiutano a rispondere a domande relative al codice. Numero massimo di token (input + output): 32.768
Numero massimo di token di output: 8192
Supervisionato:
RLHF: No
Distillazione: No

Supporto dei linguaggi

API Vertex AI PaLM e API Codey i modelli precedenti supportano le seguenti lingue:

  • Arabo (ar)
  • Bengalese (bn)
  • Bulgaro (bg)
  • Cinese semplificato e tradizionale (zh)
  • Croato (hr)
  • Ceco (cs)
  • Danese (da)
  • Olandese (nl)
  • Inglese (en)
  • Estone (et)
  • Finlandese (fi)
  • Francese (fr)
  • Tedesco (de)
  • Greco (el)
  • Ebraico (iw)
  • Hindi (hi)
  • Ungherese (hu)
  • Indonesiano (id)
  • Italiano (it)
  • Giapponese (ja)
  • Coreano (ko)
  • Lettone (lv)
  • Lituano (lt)
  • Norvegese (no)
  • Polacco (pl)
  • Portoghese (pt)
  • Rumeno (ro)
  • Russo (ru)
  • Serbo (sr)
  • Slovacco (sk)
  • Sloveno (sl)
  • Spagnolo (es)
  • Swahili (sw)
  • Svedese (sv)
  • Thailandese (th)
  • Turco (tr)
  • Ucraino (uk)
  • Vietnamita (vi)

Data di interruzione del modello precedente

La tabella seguente mostra la data di interruzione dei modelli precedenti:

modello chat-bison Data di uscita Data di interruzione
chat-bison@002 6 dicembre 2023 9 ottobre 2024
modello chat-bison-32k Data di uscita Data di interruzione
chat-bisonte-32k@002 4 dicembre 2023 9 ottobre 2024
modello code-bison Data di uscita Data di interruzione
codice-bison@002 6 dicembre 2023 9 ottobre 2024
modello code-bison-32k Data di uscita Data di interruzione
codice-bison-32k@002 4 dicembre 2023 9 ottobre 2024
modello codechat-bison Data di uscita Data di interruzione
codechat-bison@002 6 dicembre 2023 9 ottobre 2024
modello codechat-bison-32k Data di uscita Data di interruzione
codechat-bison-32k@002 4 dicembre 2023 9 ottobre 2024
modello text-bison Data di uscita Data di interruzione
text-bison@002 6 dicembre 2023 9 ottobre 2024
modello text-bison-32k Data di uscita Data di interruzione
text-bison-32k@002 4 dicembre 2023 9 ottobre 2024
modello text-unicorn Data di uscita Data di interruzione
text-unicorn@001 30 novembre 2023 Non prima del 30 novembre 2024

Modelli legacy che supportano la velocità effettiva sottoposta a provisioning

Questa tabella mostra i modelli precedenti che supportano Velocità effettiva sottoposta a provisioning, che viene misurato in caratteri al secondo, incrementi minimi di acquisto e tassi di burndown.

Modello Velocità effettiva per GSU Incremento minimo dell'acquisto in GSU Tassi di burndown
text-bison, chat-bison, code-bison codechat-bison 4000 5 1 carattere di input = 1 carattere
1 carattere di output = 2 caratteri
text-unicorn 400 5 1 carattere di input = 1 carattere
1 carattere di output = 3 caratteri