DECK=TALIA= proste Q:A (co to jest?). What? Flashcards
a tutaj OBJECTIVE (102 cards)
a tutaj .. prompt
ELIQUIS…. (substancja czynna)
ELIQUIS (…qS….)
a tutaj footnote
(apiksaban)
.
.
.
.
(apiQsaban)
.
(…Q…..)
(apIIIIkSSSSSaban)
ELIQUIS (5mg) 2x1
elikłisssssssssssssssss
[u ła ce-errr]
UACR
URINE
AC!
A /CR
RATIO
[ju ej sij ar]
URINE
AC
poprostu
AC A!C! AC… tylko AC
albumine to
creatynine ratio
-UACR
sklad
XIG…DUO
(…….)+(…..)
(i)S- GL-T2+ (metformian)
ktora flozyna?
(dapagliflozyna) + (metformina)
(dapagliflozyna) + (metformina) =
jakie duo?
MTX
jest X oraz flozyna na D
XIG….DUO
…(dapagliflozyna)….
Q.Xduo.Fo
JARDIANCE
.
.
.
QTERN XIGDUO forXIGA
f(l)orXIGA
Januvia z innej firmy
JaZETA ZENTIVA
(apiksaban) ELIQUIS 5mg dawkowanie:
(apiksaban) ELIQUIS 5mg
.
D: 2x1 tab
.
.
DWA razypo 1 tab 5mg
zostaly jaja… 2 …. JA…., JA…..
JA NUVIA JA ZETA JA…
JANUVIA JAZETA SIGLETIC
substancja czynna (…..)
Dawkowanie…(sitagliptine)
jest inne niz tej innej
bo ta inna jest [łan]
to wiec tej jest …
SITA do DWA
(sitagliptyna) to DWA
to two
plus minus ile HBA1c w % … margines bledu?
niby … “+/-0.4%” HBA1C
co lepsze od chatGPT?
GPT4
chatG-P-T-T (G…P….T) ?
ChatGPT
(Chat) over: Generative Pre-trained Transformer)
ChatGPT is an artificial intelligence chatbot developed by OpenAI and launched in November 2022. It is built on top of OpenAI’s GPT-3.5 and GPT-4 families of
(LL) large language models and has been fine-tuned using both supervised and reinforcement learning techniques
ChatGPT
a chat over GPT
a chat over Generative Pre-trained Transformer
G…P..T…
Generative
Pre-trained
Transformer
a model of AI
GPT
Generative
……………………
Pre-trained
……………….
TRANSFORMER
Generative Pre-trained Transformer
GPT
powiedz pelna nazwe
G (P-T) T
Generative
(Pre-Trained)
Transformer
LLM?
LLM AI
large L A N G U A G E MODELS
Large LANGUAGE Model (LLM) AI is a term that refers to AI models that can generate natural language texts from large amounts of data. Large language models use deep neural networks, such as transformers, to learn from billions or trillions of words, and to produce texts on any topic or domain.
to generate natural language texts from large amounts of data.
…. DATA —–> natural language texts
MASA danych.( MASA WORDS 10do12.. —–> transformowana na —-> NATURALNY jezyk ludzi
do DWUNASTEJ POTEGI SŁÓW
do 12.
do DWUNASTEJ potegi
1 000 000 000 000
…. LARGE … (AI) models… generating … odpowiedzi = texty w naturalnym jezyku z BIG DATA = LARGE amounts of DATA
“transformers” in LLM? AI
DNN
billions9 … trylions12 TRYLION = TWELVE
to… AUTOCOMPLETE jest
autouzupelniania na sterydach
wybiera to co jest .. najczesciej?
algorytm wyboru kolejnego slowa?
DEEP “NEURAL” NETWORKS
…………………….
LLM
Large Language Models.
use DEEP “NEURAL” NETWORKS DNN
((( such as transformers )))
…to learn from billions 10to the th9 or trillions 10 to the 12th of WORDS ,
and to produce texts on any topic or domain.
NATURAL LANGUAGE
ten angielski
flozyny
to Sodium GLucose ….. - T2
SGLT2
[es gie el te dwa] inhibitory
inhibitory…
zwrotnego wchlaniania
[es gie el te dwa]
Sodium GL T 2
co-transportera
S GL T2
[es gie el te dwa]
sodium GL ucose T 2
(i) S-GL(co)T(type)2
to po polsku
kanalik …
po pierwsze najwazniejsze sprawy
Inhibitory ko-transportera sodowo-glukozowego 2 (SGLT2): nowa grupa doustnych leków przeciwcukrzycowych
Sodium-glucose co-transporter-2 (SGLT2) inhibitors: novel oral antidiabetic drugs
blokują
REABSORPCJE w kanaliki….
.. inhibit the coupled reabsorption of sodium and glucose from the proximal tubules
ciekawy cel … “leczenia” cukrzycy
nowy paradygmat
tj
… stosowanie … LEKÓW
o uznanym ….
“do celu, jakim jest cukrzyca bez powikłań.”
poprzez stosowanie lekow o
uznanym potencjale cardio i nefro protekcyjnym
leki CHRONIĄCE serce i CHRONIACE nerki
przekaz dla ludu