Quina diferència hi ha entre producte creuat i producte exterior amb la derivació de les fórmules?


Resposta 1:

No estic segur de si respondré la vostra pregunta. No veig cap explicació addicional de la pregunta i no sé si és només el meu problema (no la trobo) o no hi ha cap comentari addicional :)

Per tant, intentaré respondre a la pregunta: quina diferència hi ha entre producte creuat i producte exterior.

Producte creuat com a zona del paral·lelograma

De fet, els dos conceptes són similars però diferents. El producte creuat és una operació que pren dos vectors i els produeix vectors ortogonals. La longitud d’un nou vector és igual a l’àrea de paral·lelograma definida pels dos vectors vells.

ThisistheparallelogramadaptedtothetwovectorswiththeareaS.Now,thecrossproductu×visvectororthogonaltotheparallelogramanditslengthisexactlyS:This is the parallelogram adapted to the two vectors with the area S. Now, the cross product \mathbf{u}\times\mathbf{v} is vector orthogonal to the parallelogram and its length is exactly S:

Per tant, el producte creuat representa l’àrea orientada del paral·lelograma. "Orientat" significa que l'àrea definida pel producte creuat té un signe en funció de l'orientació dels vectors u i v. Diem que el producte creuat és antisimètric, és a dir, si canvia l'ordre dels vectors, canvia el signe:

v×u=u×v.\mathbf{v}\times\mathbf{u} = - \mathbf{u}\times\mathbf{v}.

Aquesta construcció només funciona en tres dimensions (vegeu, però, producte creuat de set dimensions). Per què? Com que en dimensions més altes, donats els dos vectors, la direcció ortogonal no es determina de manera única. Per exemple, en 4D hi ha un pla sencer de vectors que són ortogonals a un parell de vectors donat.

Observeu també que al producte creuat hi ha algunes estructures ocultes. És a dir, quan parlem d’angles, àrees, longituds, ortogonalitat, necessitem l’anomenat tensor mètric. Essencialment, el tensor mètric és el producte escalar (producte dot, producte interior). Si sabeu què és el producte escalar, podeu mesurar automàticament les distàncies i els angles. En el pla euclidià, el producte de dos vectors ve donat per relació familiar

uv=u1v1+u2v2+u3v3.\mathbf{u} \cdot \mathbf{v} = u_1\,v_1 + u_2\,v_2 + u_3\,v_3.

Tot i que aquesta relació és familiar i evident, és una estructura addicional que cal afegir al vostre espai vectorial. L’espai vectorial és només un conjunt de vectors que es poden afegir i multiplicar per escalars (és a dir, combinats linealment), però l’espai vectorial sol no conté informació sobre longituds i angles. El producte escalar s’ha de proporcionar com a ingredient més. I, de fet, de vegades necessitem espai vectorial on el producte escalar es defineixi de manera diferent.

However,onceyoudefinethescalarproduct,thelength(ornorm)ofavectorv=vcanbedefinedbyHowever, once you define the scalar product, the length (or norm) of a vector |v = |\mathbf{v}| can be defined by

v=vv.v = \sqrt{ \mathbf{v}\cdot\mathbf{v} }.

L'angle entre els dos vectors es defineix per

cosα=uvuv\cos \alpha =\dfrac{ \mathbf{u} \cdot \mathbf{v}}{u\,v}

on en el denominador només tenim les normes dels vectors.

Espais vectorials i espais duals

Ara, anem al producte exterior. És una mica abstracte i generalitza el producte exterior en (com a mínim) dues direccions. Funciona en dimensió arbitrària i opera en objectes més generals que vectors.

Per tant, disposem d’un espai vectorial arbitrari L de la dimensió n. Els elements de L són doncs vectors:

u,v,w,L. u, v, w, \dots \in L.

Com que L és espai vectorial, podeu combinar linealment els seus elements, per exemple

c1u+c2vLc_1 \,u + c_2\,v \in L

isagainavector,ifc1,c2arerealnumbersand[math]u,v[/math]arevectors.Inotherwords,inthedefinitionofvectorspacethereisencodedthatyoucanaddvectorsandmultiplythemwithnumbers.is again a vector, if c_1,c_2 are real numbers and [math]u,v[/math] are vectors. In other words, in the definition of vector space there is encoded that you can add vectors and multiply them with numbers.

StatementthatLhasdimensionnmeansthatyoucanchoosenlinearlyindependentvectors,denotetheme1,e2,en,suchthatanyvector[math]vL[/math]canbewrittenasalinearcombinationoftheformStatement that L has dimension n means that you can choose n linearly independent vectors, denote them e_1, e_2, \dots e_n, such that any vector [math]v\in L[/math] can be written as a linear combination of the form

v=v1e1+v2e2++vnen.v = v^1\,e_1 + v^2\,e_2 + \dots + v^n\,e_n.

Utilitzant el signe de suma, això és

v=i=1nvieiv = \sum\limits_{i=1}^n v^i\,e_i

i en geometria diferencial l’abreviarem encara més utilitzant la convenció de sumació d’Einstein (notació d’Einstein) com a

v=viei,v = v^i\,e_i,

wherethesummationisimplicit.Thesetofvectors{ei,i=1,2,n}iscalledbasisofvectorspaceL.Anditisnotunique.Youcanmixthebasisusingarbitraryregularmatrix(withnonzerodeterminant)[math]A[/math],andcreateanewbasisbywhere the summation is implicit. The set of vectors \{e_i,i=1,2,\dots n\} is called basis of vector space L. And it is not unique. You can “mix” the basis using arbitrary regular matrix (with non-zero determinant) [math]A[/math], and create a new basis by

e~i=Aijej.\tilde{e}_i = A_i^j\,e_j.

Per a molts propòsits, és útil estudiar diversos mapatges definits a L.

α:LR \alpha : L \mapsto R

whereRisthesetofrealnumbersandαisacovector.Thus,covector[math]α[/math]isamappingwhichtakesavector[math]v[/math]andproducesarealnumber:where R is the set of real numbers and \alpha is a covector. Thus, covector [math]\alpha[/math] is a mapping which takes a vector [math]v[/math] and produces a real number:

α(v)R.\alpha(v) \in R.

Tobemoreprecise,inorderthatamappingα:LRbeacovector,itmustbelinear,i.e.,itactsonalinearcombinationasfollows:To be more precise, in order that a mapping \alpha : L \mapsto R be a covector, it must be linear, i.e., it acts on a linear combination as follows:

α(c1v+c2u)=c1α(v)+c2α(u).\alpha(c_1\,v + c_2\,u) = c_1\,\alpha(v) + c_2\,\alpha(u).

ThesetofcovectorsonagivenvectorspaceLisitselfavectorsspacewhichiscalleddualspaceL.The set of covectors on a given vector space L is itself a vectors space which is called dual space L^*.

GivenabasiseiofL,youcandefinealsodualbasisof[math]L[/math].Thedualbasisisdenotedby[math]e1,e2,en[/math],whereeach[math]ei[/math]isacovector(mappingonL),anditisdefinedbytherequirementGiven a basis e_i of L, you can define also dual basis of [math]L^*[/math]. The dual basis is denoted by [math]e^1, e^2, \dots e^n[/math], where each [math]e^i[/math] is a covector (mapping on L), and it is defined by the requirement

ei(ej)=δji,e^i(e_j) = \delta^i_j,

whereδjiistheusualKroneckersymbol,where \delta^i_j is the usual Kronecker symbol,

δji={0if ij,1if i=j\delta^i_j = \left\{\begin{array}{cl}0 & \text{if}~i \neq j, \\ 1 & \text{if}~i=j\end{array}\right.

Thus,dualbasissatisfies,e.g.e1(e1)=1,e1(e2)=0.Thus, dual basis satisfies, e.g. e^1(e_1) = 1, e^1(e_2) = 0.

Now,dualspaceLisavectorspaceofdimension[math]n[/math],thesameas[math]L[/math].Hence,wecanexpandanycovector[math]α[/math]inthedualbasis,Now, dual space L^* is a vector space of dimension [math]n[/math], the same as [math]L[/math]. Hence, we can expand any covector [math]\alpha[/math] in the dual basis,

α=αiei.\alpha = \alpha_i\,e^i.

Whenitactsonthevectorv=viei,wehaveWhen it acts on the vector v = v^i \,e_i, we have

α(v)=αiei(vjej),\alpha(v) = \alpha_i e^i (v^j \,e_j),

andusingthelinearityifα,and using the linearity if \alpha,

α(v)=αivjei(ej)=αivjδji=αivi.\alpha(v) = \alpha_i\,v^j e^i(e_j) = \alpha_i \,v^j \delta^i_j = \alpha_i\,v^i.

Explicitament,

α(v)=α1v1+α2v2++αnvn.\alpha(v) = \alpha_1\,v^1 + \alpha_2\,v^2 + \dots + \alpha_n\,v^n.

Veieu que aquesta relació recorda el producte escalar. Però no és exactament el producte escalar, perquè el producte escalar es realitza en dos vectors, mentre que aquí tenim el "producte" de dos objectes diferents: el covector i el vector.

Tensor mètric

Thisisexactlythepointwhereadditionalstructureisnecessary.Thatmissingstructureiscalledthemetrictensor,whichissymmetric,nondegeneratebilinearmappingonL.Usuallywedenotethemetrictensorbyg.Thatis,metrictensor[math]g[/math]ismappingwhichtakestwovectors(elementsof[math]L[/math])andproducesarealnumber:This is exactly the point where additional structure is necessary. That missing structure is called the metric tensor, which is symmetric, non-degenerate bilinear mapping on L. Usually we denote the metric tensor by g. That is, metric tensor [math]g[/math] is mapping which takes two vectors (elements of [math]L[/math]) and produces a real number:

g(u,v)R.g(u,v) \in R.

Letsexplainwhattheotheradjectivesmean.Wealreadyknowwhatislinearity,seethedefinitionofcovector.Nowghastwoargumentsanditisrequiredtobelinearinboth,thatswhywecallitbilinear:Let’s explain what the other adjectives mean. We already know what is linearity, see the definition of covector. Now g has two arguments and it is required to be linear in both, that’s why we call it bilinear:

g(u,c1v+c2w)=c1g(u,v)+c2g(u,w),g(u, c_1\,v + c_2\,w) = c_1\,g(u,v) + c_2\,g(u,w),

g(c1u+c2v,w)=c1g(u,w)+c2g(v,w).g(c_1 \,u+ c_2\,v, w) = c_1\,g(u,w) + c_2\,g(v,w).

Next,werequirethatgbesymmetric,whichmeansNext, we require that g be symmetric, which means

g(u,v)=g(v,u)forany[math]u,vL.[/math]g(u,v) = g(v,u) for any [math]u,v \in L.[/math]

Podeu comprovar que el producte escalar esmentat al principi compleix ambdues propietats, en la notació estàndard,

uv=vu(symmetry)\mathbf{u}\cdot\mathbf{v} = \mathbf{v}\cdot\mathbf{u} (symmetry)

u(v+cw)=uv+cuw(linearity)\mathbf{u}\cdot\left(\mathbf{v}+c\,\mathbf{w}\right) = \mathbf{u}\cdot\mathbf{v} + c\,\mathbf{u}\cdot\mathbf{w} (linearity)

Inaddition,metrictensormustbenondegenerate.Thismeansthatifyourepresentgbyamatrix,thismatrixhasnonzerodeterminantandcanbeinverted.(Thereisalsobasisindependentdefinitionofnondegeneracy)In addition, metric tensor must be non-degenerate. This means that if you represent g by a matrix, this matrix has non-zero determinant and can be inverted. (There is also basis-independent definition of non-degeneracy)

Whatisamatrixofg?Simply,ifyouchooseabasis[math]ei[/math]in[math]L[/math],dualbasis[math]ei[/math]in[math]L[/math],youcanactwith[math]g[/math]onthebasisvectors:[math]g(ei,ej).[/math]Recallthat,bydefinition,metrictensor[math]g[/math]takestwovectorsandproducesarealnumber.Hence,withanypair[math](ei,ej)[/math]wehaveassociatednumberwhichwedenotebyWhat is a matrix of g? Simply, if you choose a basis [math]e_i[/math] in [math]L[/math], dual basis [math]e^i[/math] in [math]L^*[/math], you can act with [math]g[/math] on the basis vectors: [math]g(e_i,e_j).[/math] Recall that, by definition, metric tensor [math]g[/math] takes two vectors and produces a real number. Hence, with any pair [math](e_i,e_j)[/math] we have associated number which we denote by

gij=g(ei,ej).g_{ij} = g(e_i,e_j).

Thesenumbersgijform[math]n×n[/math]matrixThese numbers g_{ij} form [math]n \times n[/math] matrix

gij=(g(e1,e1)g(e1,en)g(en,e1)g(en,en)).g_{ij} = \begin{pmatrix} g(e_1,e_1) & \dots & g(e_1,e_n) \\ \vdots \\ g(e_n,e_1) & \dots & g(e_n,e_n) \end{pmatrix}.

Theconditionthatgbenondegeneratesimplymeansthatthismatrixisinvertible,i.e.thereexistsamatrix[math]gij[/math]suchthatThe condition that g be non-degenerate simply means that this matrix is invertible, i.e. there exists a matrix [math]g^{ij}[/math] such that

gijgjk=δkig^{ij} g_{jk} = \delta^i_k

que és només la versió component de relació de la matriu inversa:

g1g=I,where[math]I=(100001000001)[/math]isidentitymatrix.g^{-1} g = I, where [math]I = \begin{pmatrix} 1 & 0 & 0 &\dots & 0 \\ 0 & 1 & 0 & \dots & 0 \\ \vdots \\ 0 & 0 & 0& \dots & 1\end{pmatrix}[/math] is identity matrix.

Sincegis,bydefinition,symmetric,alsothematrixof[math]g[/math]satisfies[math]gij=gji[/math].Since g is, by definition, symmetric, also the matrix of [math]g[/math] satisfies [math]g_{ij}=g_{ji}[/math].

Tensors generals

Torecapitulate,wehavevectorspaceL.Itsdual[math]L[/math]isthespaceofcovectors,i.e.mappingswhichtakeonevectorandproducearealnumber.Inaddition,wehaveametrictensorwhichtakestwovectorsandproducesarealnumber.Thus,itisnaturaltostudygeneralmappingswhichtakepvectors,[math]p=1,2,n,[/math]andproducearealnumber.Wewillalsorequirethatthesemappingsaremultilinear,i.e.linearinalltheirarguments.To recapitulate, we have vector space L. Its dual [math]L^*[/math] is the space of covectors, i.e. mappings which take one vector and produce a real number. In addition, we have a metric tensor which takes two vectors and produces a real number. Thus, it is natural to study general mappings which take p vectors, [math]p = 1, 2, \dots n,[/math] and produce a real number. We will also require that these mappings are multilinear, i.e. linear in all their arguments.

Thecovarianttensorofrankpisamultilinearmappingτ,The covariant tensor of rank p is a multilinear mapping \tau,

τ:L×L××LpR\tau : \underbrace{L \times L \times \cdots \times L}_p \mapsto R

Suchatensortakespvectorsandproducesanumber,anditislinearinallparguments.Symbolically,wewritethelinearityconditionasSuch a tensor takes p vectors and produces a number, and it is linear in all p arguments. Symbolically, we write the linearity condition as

τ(,u+cv,)=τ(,u,)+cτ(,v,)\tau(\dots, u + c\,v, \dots ) = \tau(\dots, u, \dots) + c \tau(\dots, v, \dots)

Now,wecandefinethecomponentsofτwithrespecttobasis[math]ei[/math]byNow, we can define the components of \tau with respect to basis [math]e_i[/math] by

τijk=τ(ei,ej,ek).\tau_{ij\dots k} = \tau(e_i, e_j, \dots e_k).

Wecanseethatmetrictensorgisaspecialcase:itisa2rankcovarianttensorwhichissymmetricandnondegenerate.Covectorisrank1tensor.We can see that metric tensor g is a special case: it is a 2-rank covariant tensor which is symmetric and non-degenerate. Covector is rank 1 tensor.

Per descomptat, una altra generalització natural és el tensor de tipus (q, p) que pren q arguments covector i p vectoris i que és multilínia, és a dir, el tensor general (q, p) és un mapeig.

t:L×L×Lq×L×L××LRt: \underbrace{L^*\times L^* \times \dots L^*}_q \times L\times L \times \dots \times L \mapsto R

Els tensors covariants són els que tenen q = 0, els tensors contravariants són els que tenen p = 0. El tensor general té components

tk..li..j=t(ei,ej,ek,el).t^{i..j}_{k..l} = t(e^i, \dots e^j, e_k, \dots e_l).

Infact,sincedualspaceLisitselfavectorspace,wecanconsideritsdual,i.e.thespace[math](L)[/math].Itturnsout,however,thatthedualdualspace[math](L)[/math]iscanonicallyisomorphicto[math]L.[/math]Iwillnotdiscussithere,butitmeansthatdualdualspaceisthesamespaceasoriginal[math]L[/math],andsowedonthavetoconsiderit.Thus,itissufficienttoconsiderupperandlowerindices,andnothingmore.In fact, since dual space L^* is itself a vector space, we can consider its dual, i.e. the space [math](L^*)^*[/math]. It turns out, however, that the dual-dual space [math](L^*)^*[/math] is canonically isomorphic to [math]L.[/math] I will not discuss it here, but it means that dual-dual space is the same space as original [math]L[/math], and so we don’t have to consider it. Thus, it is sufficient to consider upper and lower indices, and nothing more.

Tensorsofrank(q,p)formagainavectorspace.Hence,wecanask,whatisthebasisofsuchspace?Wedefinetheoperationoftensorproduct.Ifσand[math]τ[/math]aretwotensors,theirtensorproductisatensor[math]στ[/math]definedbyTensors of rank (q,p) form again a vector space. Hence, we can ask, what is the basis of such space? We define the operation of tensor product. If \sigma and [math]\tau [/math]are two tensors, their tensor product is a tensor [math]\sigma\otimes\tau[/math] defined by

(στ)(u,,v,w,,z)=σ(u,,v)τ(w,z)(\sigma\otimes\tau)(u, \dots, v, w, \dots, z) = \sigma(u,\dots,v)\,\tau(w,\dots z)

(Per ser més precisos, el producte tensor es defineix mitjançant una factorització respecte a un ideal adequat escollit de l’àlgebra, però oblidem-ho d’això). Aleshores, qualsevol tensor es pot ampliar fins a una base formada per producte tensor dels vectors i covectors de base:

τ=τk..li..jekeleiej.\tau = \tau^{i..j}_{k..l} e^k \otimes \dots e^l \otimes e_i \otimes \dots \otimes e_j.

Com que els tensors formen un espai vectorial, es poden combinar linealment igual que vectors. Però la introducció del producte tensor significa afegir una altra operació, la multiplicació. Això converteix l'espai vectorial dels tensors en àlgebra, és a dir, un conjunt en el qual es defineixen tant combinacions lineals com multiplicació.

Tant per als tensors.

Formes

Ara ens aproximem al producte exterior. Hi ha una subclasse de tensors molt (en realitat MOLT) molt important. Aquests tensors especials s’anomenen formes (o, en el context de càlcul en múltiples, formes diferencials). Una altra vegada, l'àlgebra de les formes sorgeix de la factorització de l'àlgebra tensora covariant respecte de l'ideal generat per tots els tensors simètrics, però aquesta és una altra història.

Les formes són tensors purament covariants que són antisimètrics en tots els seus arguments. És a dir, una forma p en l'espai vectorial n-dimensional L és un mapeig que pren arguments vectorials p i produeix un nombre real, mentre que si intercanvieu l'ordre dels dos arguments, canvieu el signe del resultat:

α(,u,,v,)=α(,v,,u,).\alpha(\dots, u, \dots, v, \dots ) = - \alpha(\dots, v, \dots, u, \dots ).

A nivell de components, això vol dir

αij=αji\alpha_{\dots i \dots j \dots} = - \alpha_{\dots j \dots i \dots }

Com que una forma és un tensor, podem prendre la forma p i la forma q, i fer un producte tensor

αβ\alpha \otimes \beta

But,althoughαand[math]β[/math]areforms,thetensorproductisnotaform.Ithasp+qindices,butitwillnotbe,ingeneral,antisymmetric.So,theoperationoftensorproductonformsdoesnotproduceanotherform,itjustproducesageneraltensor.But, although \alpha and [math]\beta[/math] are forms, the tensor product is not a form. It has p+q indices, but it will not be, in general, antisymmetric. So, the operation of tensor product on forms does not produce another form, it just produces a general tensor.

Si volem mantenir-nos a l’espai dels formularis, hem de projectar el resultat del producte tensor a l’espai dels formularis. Això s’aconsegueix mitjançant l’operació de l’antisimetració (vegeu també el delta generalitzat de Kronecker). L'antisimetria es defineix, per als tensors de segon rang, per

t[ij]=12(tijtji).t_{[ij]}= \frac{1}{2}\left(t_{ij}-t_{ji}\right).

Ja ho veus

t[ij]=t[ji],t_{[ij]} = - t_{[ji]},

independentlyofwhethertensortisantisymmetricornot.Wesaythatweantisymmetrizetensor[math]tij[/math]inbothindices,obtainingsoatensorwhichisantisymmetricinbothindices.Thiscanbegeneralizedtotensorsofarbitraryrankpbyindependently of whether tensor t is antisymmetric or not. We say that we antisymmetrize tensor [math]t_{ij}[/math] in both indices, obtaining so a tensor which is antisymmetric in both indices. This can be generalized to tensors of arbitrary rank p by

t[ijk]=1p!Psgn(P)tP(1)P(p),t_{[ij\dots k]} = \frac{1}{p!} \sum_{P} \mathrm{sgn}(P)\,t_{P(1)\dots P(p)},

wherethesumgoesthroughallpermutationsofi,j..k.sgnisthesignofpermutation.Thus,forexample,forp=3wehavewhere the sum goes through all permutations of {i,j..k}. \mathrm{sgn} is the sign of permutation. Thus, for example, for p=3 we have

t[ijk]=13![tijk+tjki+tkijtjiktkjitikj].t_{[ijk]} = \frac{1}{3!}\left[ t_{ijk}+t_{jki}+t_{kij} - t_{jik} - t_{kji} - t_{ikj}\right].

Thus,havingapformαandaqform[math]β[/math],wecandoatensorproduct[math]αβ[/math],whichisnotaform,butthenwecanantisymmetrizetheresultinallindicesandwegetap+qform.Resultingoperationiscalledtheexteriorproductorthewedgeproduct:Thus, having a p-form \alpha and a q-form [math]\beta[/math], we can do a tensor product [math]\alpha\otimes\beta[/math], which is not a form, but then we can antisymmetrize the result in all indices and we get a p+q form. Resulting operation is called the exterior product or the wedge product:

(αβ)ij=(p+q)!p!q!α[iβj](\alpha \wedge \beta)_{i\dots j} = \dfrac{(p+q)!}{p!q!} \alpha_{[i\dots} \beta_{\dots j]}

Els factorials de la definició són molestos, però són necessaris, tot i que hi ha diferents convencions en què els factorials apareixen en diferents llocs.

Ho sento, acabaré ara, al meu país és nit profunda i haig de dormir. Continuaré demà :)