Thank you for the request

 I will add it to the glossary within a few days if it is pertinent.

A

Additive color

Additive color, also called additive mixing, is a color model that describes how colors appear when using lights. With light, the more colors you add, the more your result will be white and bright. Most of the time we consider three primary colors, Red, Green and Blue, and mixing two of them together can give the secondary colors Yellow, Cyan and Magenta. The opposite model is subtractive mixing, where the more colors you mix together, the darker your result is, which applies for paint.

​Alpha

The alpha is a channel that serves to describe opacity in an image. The three main channels, red, green and blue make the colors of the image, and you can have an alpha defining which part of the image should be opaque, meaning occluding the background, and which part should be transparent. It is almost always 'tied together' with the color using the operations Premult and Unpremult, to make for a coherent image altogether.

​Aperture

The aperture of a camera lens is the size of the hole created by the diaphragm. It is expressed if F-stop or T-stop and can be adjusted on the vast majority of lenses. The wider the hole, the smaller the F-stop (or T-stop) value, and the more light comes inside the lens to reach the sensor.
A side effect of adjusting the aperture on a camera is the change in the amount of depth of field. The wider you open the aperture, the shallower and more intense ​depth of field your image will have.
In opposition, the smaller the aperture is, the bigger the F-stop (or T-stop) number is, and you will have less light reaching the sensor, resulting in a darker image, as well as a wider depth of field.

​Aspect ratio

An aspect ratio can define two things, depending on the context:

- It is basically the shape of an image. A square image has an aspect ratio of 1:1, meaning 1 unit of width by 1 unit of height, while other images can have an aspect ratio of 16:9 for example.

- Iit can be specific to pixels, defining then the pixel aspect ratio, the shape of each pixel in your image. Most pixel aspect ratios are square, 1:1, as the image was shot using a spherical lens, while some images are shot using anamorphic lenses, which will then need a pixel aspect ratio of 2:1, rectangular, to compensate for that.

It is important to note that the pixel aspect ratio and the image aspect ratio are completely independent. Despite having some industry standards, one doesn't enforce the other in any way.



B

Background

The background is the part of an image that was the furthest away from the camera when the image was taken. Following the same logic, it is often the element the furthest away from your final result in compositing, at the top of the node tree, straight up from your final Write node, making up for the trunk of your node tree, also called B-pipe.

​B-pipe

The B-pipe in the node graph is the main branch of your script, which is completely straight and goes from the plate you have in your image at the top of the script, to the Write node that will render your final image at the very bottom of your script. You can picture it as the trunk of your nodes tree.

The name B-pipe comes from the fact that the standard practice is to keep the B input always pointing up on Merge nodes, which makes for a straight line from the plate to the final Write node.

​Black point

The black point has two different meanings:

- In digital color theory, it is literally the point at which a pixel is perfectly black, meaning it has a 0 value in each channel.

- In an image, we refer to the black point as the darkest area in the frame, usually a small area deep in shadows. It is particularly important to take a moment to analyze it in terms of brightness and hue, as changing the black point of an image can have a significant impact on other areas of a frame, even brighter ones, potentially forcing you to start again your grading process entirely.

​​Bokeh

The bokeh is an element of an image when it has been captured with a fairly shallow depth of field, and when there was a bright light facing the sensor in an out-of-focus element. When out of focus, bright lights tend to  'eat' at the image outwards and grow in size compared to what's next to them, and will take a circular or polygonal shape, determined by the number of blades that form the diaphragm. The shallower the depth of field is, the bigger the bokeh in an image can be.

​Branch

A branch is a small part of a script, or node tree, that is being added on the B-pipe. It usually is an independent element like a character, smoke or explosion alone, that you then merge with the rest of the scene.

​Brightness

The brightness of a pixel or image is literally how bright or dark it is, regardless of its hue (aka color).

When receiving notes from a supervisor or simply discussion your work with a fellow colleague, it is common to make a distinction between brightness and hue, and be asked to increase the brightness while maintaining the same hue, or adjust the hue (sometimes roughly called temperature) without modifying the brightness.



C

CG

CG is an abbreviation for Computer Graphics, which refers to elements originally made digitally, using computers.

In compositing, we usually refer to CG as the elements made by our CG departments, such as Lighting, FX, animation, etc, anything that doesn't come from a real camera, or made as part of the compositing process.

For 2D elements that we add in the shot at the comp level, we do not use the term CG as these elements have been shot through a real camera, and therefore we have a different way of working with them.

​Channel

A channel is a component of pixel information that contains one specific piece of information. It is a single numerical value per pixel, often containing the red, green, blue or alpha information, but can contain pretty much whatever you want, as long as it fits into a single number per pixel. When combined, the four red, green, blue and alpha channels are bundled into a layer, always called rgba, sometimes referred to as the main part of the exr file.

​Colorspace

Can be summed up roughly as a specific range and number of colors possible to have in an image. It also has specific primaries (in our case Red, Green and Blue). You might have seen names like rec.709, sRGB or Log for example. More precisely, we should speak about color gamut and color gamma rather than colorspaces, but these are more advanced and conceptual notions so feel free to stick to the colorspace idea until you're more comfortable with color, and ready to tackle the abstract notions of gamut and gamma.

​Compression

Compression is a way of reducing the size of a file by making compromises with a loss of quality or that file. For example, instead of storing the entire value 3.14159265, you could choose to round it at the third decimal, only writing 3.142. You will lose some precision since you're not writing all the decimals, but you need less space on your disk to store that value. Multiply that by millions or billions of values, the gain in space can be pretty significant.

There are many compression algorithms available and in research, whether they are dedicated for images, video, audio, etc, and can range widely from a very heavy compression that will lose a lot of quality but result in a file size of less than 1% of the original size, or algorithms called lossless, where you wouldn't lose too much precision (aka quality), but can obviously save less space.

In the case of VFX, if there are only two algorithms to remember, it would be ZIP1, which is a lossless compression, the most common in compositing, as well as DWAA, which is aimed at dividing the original size by around 4, at the small compromise of a slight quality loss, but very well designed, so much that it's pretty much invisible by eye by default. DWAA is such a great algorithm that lots of companies are starting to compress all the files they can with this to save space and improve reading speed, and it is the algorithm that I chose to compress my exercises.



D

Depth of field

The depth of field is a side effect of the aperture in a camera. It can be quite shallow, meaning only your subject is in focus and everything behind and in front of it will be out of focus (understand blurry), or at the opposite quite wide, where the entire image is in focus, regardless of the element's depth compared to your subject.

Since it is mostly a question of distances, you can deduce from this that two objects in different areas of the image will have the same blurriness as long as they are at the same distance from the subject when looking through the camera.

​Despill

The despill operation is the process of removing the color spill of a green screen or blue screen and replacing it with the color that should be there if there was no screen to begin with.

To replace the background in a scene, it is common to use green or blue screens behind actors to isolate them from their environment, but unfortunately as light bounces around all the time, the green or blue color will very often bounce from the screens onto the actors, ground, other buildings, etc, on top of the obvious edges of the characters.
The despill will focus on that, removing the overly green or blue colors on the scene and replacing them with colors ​that match better the environment we're putting instead of the screens.

⚠️ Please note that the despill process if very often overlooked and underestimated. It deserves even more attention than the keying operation, and should even be started before the keying to have a decent result from the beginning. A lot of people tend to try to fix despill issues by the keying process, not realizing that the key can only improve the alpha, the opacity of an object, and that color issues can only be fixed by the despill.

​Diaphragm

The diaphragm of a lens is the element responsible for the control of the aperture. It is composed of multiple curved blades that rotate slightly to create a bigger or smaller hole.

The number of blades will influence the aspect of the resulting bokeh in images, as the bokeh will have the same number of sides as the number of blades inside the diaphragm.

​Downstream

Downstream can describe a department (compositing, layout, lighting, etc), or part of a nuke script. In both cases, it is a description in comparison to a reference:

- In case of a department, we mean by downstream all departments that are after the one you are currently talking about, the ones that are dependent on said department to work. For example, lighting is downstream compared to layout, as you can't really do much lighting work without having done at least a bit of layout work. Texturing is downstream of modeling, as you need something to be modeled before you can apply some texture to it.

- In case of a node script, it is a similar story, nodes described as downstream of a blur node for example, are all the nodes below that blur node, and which depend on it.



E

Exposure

The exposure is the characteristics of how bright or dark your overall image is. When you're adjusting your aperture, ISO or shutter angle for example, you're ​changing the overall brightness of the image, instead of a specific region. Some parts might still be very dark or very bright if you have lots of contrast in your scene, such as a window with a bright sun from inside a building.
It is often said to expose for something, meaning to change the exposure of the whole image to prioritize the subject to be at the appropriate brightness.



F

​F-stop

F-stop is the unit of the amount of light entering a lens through the diaphragm, and is therefore controlled by the aperture. It is written f/number, where big numbers like f/22 mean a small aperture and a small amount of light entering the lens, while small numbers such as f/1.8 mean a big aperture and a big amount of light entering the lens.

F-stop is more of a photography unit, as in videography we'll prefer lenses rated in T-stop, which is more precisely the amount of light reaching the sensor, rather than just entering the lens. Most of the time the lens, via reflection and absorption, will capture a tiny portion of the light entering and will not redirect it properly to the sensor.

​Focal length

The focal length is the distance between the optical center of the lens itself and the camera sensor. It mostly determines the angle of view that is captured by the lens. A 10mm focal length will capture a very wide angle of a scene, while a 300mm focal length will only capture a very narrow angle, usually called a telephoto lens.

An induced effect of the focal length is the perceived perspective of the image. A long focal length will force you to stay far from your subject, and therefore remove a certain perception of distance between elements, everything will appear right behind or in front of each other, while a very short focal length will do the opposite, pushing you to get close to your subject, and therefore exaggerate the perception of distance, making ​your nose look much bigger than it actually is in real life for example (I speak from experience...).

Another side effect that isn't always true this time is the amount of distortion the lens applies on the image (see lens distortion). When using a short focal length, ​straight lines in real life such as buildings for example will tend to be quite curved around the edges of the image, while a telephoto lens will do a better job at keeping straight lines straight in the image. This is, however, not always the case as some lens manufacturers are doing a great job at preventing/fixing internally this problem and can propose short focal length lenses with a minimal amount of distortion.

​Focus

To focus is to choose which part of the image is gonna be sharp. Unless you have a very small aperture (aka a big F-stop number), it is likely that some part of the image will fall out of focus and will be blurred, so you adjust the focus distance on your camera or lens to be at the distance where your subject is, guaranteeing that it will be sharp.
If your subject is moving in depth, you will likely want to adjust the focus distance while recording the video to make sure it stays sharp during the entire time, this is called a focus rack.

​Footage

Footage is the name of all the material shot through a camera. It can be the plate itself, or other types like witness camera footage, chrome ball or grey ball images, HDRIs, clean plates, smoke or fire isolated, etc.

​Foreground

The foreground is the part of an image that was the closest from the camera when the image was taken. Following the same logic, it is often the element the closest from your final result in compositing, at the bottom of the node tree, added from the side onto the B-pipe as a separate branch.

​Frame

A frame is a synonym for an image.

To frame a subject means to give an intention to its position in the image created through the camera. You can frame your subject in the center or following the rule of thirds, for example.

⚠️We often use frame instead of image when talking about a specific image number. Since we're not working with video but with image sequences, each image has its own number, increasing chronologically, and any discussion regarding a specific time will often be phrased like 'at frame 1030' for example.

​Frame rate

The frame rate is the speed at which all your images are shown one after the other, to give the illusion of a video. The standard for cinema is often 24 FPS (frames per second) or close to that, while internet videos tend to be around 30 FPS or a factor of that (60 FPS, 120 FPS...). It is both an artistic and technical choice as it will have consequences whether the recorded motion is close to the human eye perception or not.

​FX

FX is the name of the vfx department responsible for making all kinds of simulations. It can be a ship navigating through some rough waters, some fire or smoke simulations, a house being destroyed by a tornado, some peaceful grass flowing with the wind, etc.

In compositing we usually take a shortcut and speak of the result of those simulations at 'the FX'.
e.g., "You just received a new FX, have a look and let me know if all is well with it."



G

Gain

The gain is a parameter to control the white point of an image, aka the pixels having a value of 1 in each channel. It acts as a multiply in the sense that it will not affect the black point at all (pixel of a value of 0), since anything multiplied by 0 equals to 0.

⚠️ Be careful to avoid having a binary vision of this parameter ; even if it is meant to control primarily the white point, and therefore the bright areas of an image, it will still influence the darker areas, in a more subtle way. Only the absolute 0 value will not be affected at all, but anything close to that will still receive some kind of influence.

​Gamma

The gamma is technically a transfer function to convert image between linear and non-linear color spaces.

In a more practical way, and commonly used within the Grade node, the gamma parameter is used to influence primarily the midtones of your image. Basically, ​all areas that are not too bright and not too dark.
However, in the same way that the gain is not exactly limited to bright areas only, the gamma is not limited to midtones, and will still influence the bright and dark ​values.

⚠️ Because of the very nature of the gamma function, when you increase it with the intent of brightening your mid-tones, if you happen to have some bright values that go above 1 and that are called 'super-brights', they will actually decrease in brightness instead of increasing like your midtones. Therefore, don't be surprised when you see your brightest points in an image become darker as you increase your gamma.

​Glow

A glow can take two different meanings depending on what is creating it:

- An atmospheric glow is caused by the diffusion of light from a defined light source due to a high humidity rate in the air or lots of dust, for example. It can be seen by the human eye and depends on the environment around you.

- An optical glow is caused by the diffusion and reflection of light inside a camera lens, resulting in a glow uniformly formed around an intense light source directly seen by the camera. Light will tend to 'bleed' on darker areas of the image directly next to the light source, regardless of the humidity or environment around you.

​Grade

A grade is a node inside Nuke allowing you to change the colors of an image in different ways, via the gain, gamma and lift parameters, for example.

To grade is the action of changing the colors of an image.



H

​Hue

The Hue is the color part of light, and therefore, pixels. When talking about the color of an image, we are actually simplifying two things that are quite independent, the amount of light, and its actual color. A bright light can lack color, and a dim light can have a ton of color.

The hue is therefore towards which color the pixel or image goes to, red, green, blue, yellow, magenta, cyan, warm, cold, etc, regardless of how bright it is.

⚠️ When receiving notes from a supervisor or simply discussion your work with a fellow colleague, it is common to make a distinction between brightness and hue, and be asked to increase the brightness while maintaining the same hue, or adjust the hue (sometimes roughly called temperature) without modifying the brightness.



I

Image (digital)

A digital image is a grid of pixels (usually millions of them), each with its own information of color and opacity, encapsulated in a layer (by default and implied, the RGBA one, for Red, Green, Blue, Alpha), and written down inside a file that can have many different extensions, meaning ways of writing it down, for example jpegs, png or exr files.

The colors of an image are written within a specific colorspace. It is rarely written down inside the metadata, and is not interchangeable without a specific transfer operation, so you must know what colorspace your image is in if you want to be able to work on it properly.

​ISO (sensor sensitivity)

The sensor sensitivity, expressed in ISO (400 ISO, 3200 ISO...), determines how much electrical amplification the camera gives to the light when it's hitting the sensor. Therefore it can be considered as an 'artificial' way to brighten the image, as it doesn't provide more light to the sensor, it only amplifies the electric signal made by the sensor when receiving light.

It is very handy in dark or night scenes where there is no other way for the camera to make an image bright enough, but it should only be used as a last resort as it has a drawback, it will create more noise on your image (see signal-to-noise ratio and noise).

On high-end cameras the noise produced remains subtle on the whole range of sensitivity, and is fairly minimal until you reach around 6400 ISO or even more, but on the majority of cameras, setting you ISO to 6400 will already have a significant impact on the noise, and a range below 3200 ISO is preferred.

Obviously, it is very specific to each camera, and you should check what the manufacturer indicates as the 'native ISO', the only rule of thumb is to remember to increase it only when your other options are not possible (see aperture and shutter speed).



J



K

Kernel

A kernel in compositing is the 'texture' a camera lens can have, due to dust or hair stuck on it, for example. While most cinema lenses are maintained in pristine condition to avoid any visual defect, sometimes they are not perfectly clean and will have some dust on them.

While that dust will be mostly invisible, it can appear in some cases, and particularly inside the bokeh created by the lens, where you will see the whole texture being fairly sharp.

In compositing, when we put some CG renders within the proper depth-of-field, we often plug a kernel image (a lens texture if you will) to simulate that same effect and add another level of richness and breakup to the overly clean CG renders.

​Key-to-fill ratio

The key-to-fill ratio is simply the ratio between the intensity of the key light over the fill light. It can be considered roughly as the contrast of the lighting, meaning a high ratio will have a very strong key light with little fill light, or a lower ratio, aka lower contrast, with a fairly present fill light and a key light not that much stronger.

​Key frame

A key frame is an image that holds a particular importance, whether it is for the shot, with a composition that is particularly meaningful, or in animation, where you define precisely what position all elements should have, instead of being automatically interpolated by curves.

​Keying

Keying is the compositing process of creating a mask of opacity deduced directly from an input image, often stored in the alpha channel.

It is most commonly deduced using criteria such as luminance, saturation, red, green or blue hue, or even red, green or blue channels.

⚠️ Please note that in the case of a green or blue screen, keying is only part of the whole process to make an image look good, and should even be considered secondary to the despill process.



L

​Layer

Can have two different meanings depending on the context:

- A layer is an element inside your script that is added over or under another element, e.g. a smoke element on top of a roof

- A layer is an image contained either in a multi-part EXR file or inside your script itself, e.g. the RGBA layer or the Normals layer. Each layer can contain up to 4 channels.

​Lens (anamorphic)

An anamorphic lens, as opposed to a spherical lens, distorts the light in different proportions vertically and horizontally. The light that goes through the lens will be distorted more horizontally before reaching the sensor, usually by a factor of 1.3 or 1.5 times the vertical deformation.

What it means it that while you can capture a very wide scene while the image captured by the sensor is almost square, and everything looks squished horizontally. You will need to apply a change in the pixel aspect ratio, called de-squeeze, to stretch each pixel wider than it usually is to compensate for that effect, and see the scene as it is in real life.

​Lens (spherical)

A spherical lens is a common type of lens that distorts the image onto the camera sensor in the same proportions as it sees it. In other words, the light going through the lens is distorted in equal amounts vertically and horizontally. The shape of the resulting image matches the shape of the sensor capturing it, as opposed to an anamorphic lens.

​Lens (telephoto)

A telephoto lens is a camera lens that has a long focal length, showing therefore a narrow field of view of the scene you're capturing, but enabling us to see objects at a very long distance.

e.g., A 200mm lens

​Lens distortion

Distortion of the footage caused by the glass elements inside the lens.

The lens distortion can be very strong or imperceptible depending on the lens used with the camera, with a global 'rule' that wide lenses tend to have more pronounced distortion than telephoto ones, due to the constraints themselves of wide-angle lenses.

It is a side effect, something the lens manufacturer doesn't intend to put in there, but is mostly a compromise they have to make to the benefit of another feature.

​Lift

The lift parameter within a Grade node is aimed at controlling the black point of an image, aka the pixels having a value of 0 in each channel. It acts as a rotation around 1 in the sense that it will not affect the white point at all (pixel of a value of 1). In the same way as the gain and gamma parameters, it is not purely limited to its intended range, and will also affect midtones and brighter values, in a more subtle way.

Linear

Specific type of colorspace that represents tones and hues evenly, regardless of what they are. A pixel of value twice as big as another one will be represented twice as bright.

Another term often used as a synonym to linear is raw, and both are opposites of non-linear colorspaces (for example logarithmic).​



M

Merge

A Merge is a type of node in Nuke used to combine two elements together, using different operations such as over, multiply, plus, etc.

To merge elements simply means combining them into a single image, one added onto the other, or put over it, or multiplied by it, etc.

​Multi-part EXR

A multi-part EXR is an OpenEXR file (extension .exr) that contains multiple layers inside, meaning multiple, independent images within the same file, as opposed to a single-part EXR which only contains one layer, the RGBA one.



N

Node

A node is a tool within Nuke that enables you to read, modify or write an image in almost any way you want. There are many nodes available, each with their own function, from the most basic ones - e.g. the Blur node to... blur an image - to complex ones like the IBKGizmo which does many operations in it to help you key uneven green/blue screens (see keying).

It is the assembly of many nodes that makes Nuke so powerful, and will enable you, from the same basic nodes, to have endless possibilities and results depending on the need. When you follow some common sense rules for using Nuke properly, this assembly of nodes will often take the shape of a tree, with the main trunk and multiple branches connected to it.

​Nodes tree

The nodes tree is the entire assembly of the nodes you created and connected together in your script to make your final image. When laid out properly, it should resemble an actual tree, with the trunk being your B-pipe and the branches being all your elements (also called layers in this context) put on top of each other, from top to bottom, going from the background to the foreground.

​Node graph

The node graph is an interface within Nuke, the tab that will allow you to see your nodes tree and open the properties of any node, as well as manipulation them and creating new ones. It is one of the three main tabs you will work in the most (see Viewer and Properties for the other two).

​Noise

Camera noise:
Digital imperfection on the image caused by some disturbance of the electrical signal on the camera sensor. It is a tiny pattern of one to a few pixels grouped randomly in small pockets, changing slightly in intensity and color between every frame.

It is mostly visible in dark areas of the image because in brighter areas, there is so much light that it hides the noise, the fill or key light is so much brighter than the difference the noise makes becomes invisible, even though technically it is still there. When you have much less light, at night for example, the noise becomes more visible since the light doesn't out power it.

In compositing, we take a shortcut and often speak about it using the term 'grain', which is a similar aspect of the image, only for analog cameras, referring to the literal grain of the video film used that captures light using tiny particles of silver. Even though the cause is different, it creates a similar artifact in the images.


Nuke node:
Noise is the name of a Nuke node used to create a noise pattern of which you can control the size, frequency, etc, to add spatial or temporal variation in another element.

e.g., "Add a noise to this mask to break up the edges"



O

​Opacity

The opacity of an object is its capacity to hide what's behind it.

In compositing, we use a channel other than the Red, Green and Blue ones to store the opacity information, often called the alpha channel, or just alpha.

When combined, our elements with an alpha channel will have some degree of opacity and therefore hide the elements put under them, or if they don't have any alpha, or it is entirely black, the foreground element will still appear, but will lack any kind of opacity, resulting in a 'plus' operation, where both elements are only ​added onto the other.

​Over (Merge operation)

The merge operation 'Over', simply put, can be seen as a combination of the 'stencil' operation followed by the 'plus' operation.

The 'stencil' will use the alpha of the foreground element to turn the background element black, effectively hiding it, and the 'plus' operation will add the ​foreground to the background, regardless of the alpha.

Granted you thought about properly premultiplying your foreground, you will end up with the illusion that the foreground is properly in front of the background, hiding it where it should.

In reality, the math behind it is slightly different as the exact operation is an inverse multiplication of the alpha rather than a stencil, but if that's a bit too far for your taste, my analogy works plenty enough.



P

Pane

Detachable and re-sizeable sub-window inside nuke, used to create a particular layout that fits your needs. A pane can only show one selectable tab but can contain many tabs, and can be floating in a separate window or not.

All the panes in Nuke make for the workspace, which can be saved to be reused easily later.

​Pixel

A pixel can be seen as a little box within your image, which is the smallest component of the image to contain an individual color information. It can be square or rectangular (see aspect ratio) and once thousands of them are laid out in a grid pattern, they  form your image. The more pixels, the bigger resolution your image has.

These could be called virtual pixels, existing within images, while you also have physical pixels, which are basically the same thing, small boxes that contain an individual color information, but physically emit light using three or four tiny lights, and together they make your monitor or screen.

​Plate

Shot material that is gonna be used as the main source for a movie. It is the base our vfx work will be built upon.

e.g., actors in front of a green screen, landscape drone shot, etc.

​Primaries

Base colors used to be mixed and create all the other variants possible within a colorspace.

In VFX, whether you are in the ACES color system or not, our primaries are always Red, Green and Blue, the primary colors. Anything else such as yellow, pink or brown for example, are simply Red, Green and Blue mixed in different amounts to give the desired result.

⚠️ Please note that for editors and colorists, primaries is a term commonly used to talk about the first, global color corrections applied to a frame.



Q



R

Raw

Usually means 'untouched'.

A raw image is the one saved straight from the camera, without compression or any other alteration from the sensor.

A colorspace called raw usually means the linear colorspace, like it is the case with ACES.

Resolution

The resolution of an image is the description of how many pixels it contains. The more pixels, the bigger the resolution. HD or 4K for example are standards defining a specific resolution. More complete names could be HD 1080p and 4K 2160p, that specify the number of rows of pixels, aka the height of the image. In this case HD has 1080 pixels in height and 4K has 2160 pixels in height. It is good practice to use the complete name, as 4K can actually have different, although similar, resolutions and aspect ratios.

⚠️ Please note that the 'p' at the end of 4K 2160p does not mean 'pixel' but 'progressive'. This is a video term (see scanning method). 



S

Script

A script is the file Nuke saves your work in. We often refer to the nodes tree as the script as well.

​Sensor (camera)

A camera sensor is the element that captures the light and converts it in a digital signal. It is the part that truly turns light into a digital image.

Some common characteristics of sensors are its size (especially useful to know for camera tracking and depth of field), its range of sensitivity (ISO) and its resolution.

​Single-part EXR

A single-part EXR is an OpenEXR file (extension .exr) which contains only a single layer inside, the RGBA layer, as opposed to multi-part EXR files.



T

Tab

A tab is a selectable part of a pane, containing a specific Nuke display, such as the Viewer or the Node graph for example.

​Tracking

Process of following part of an image through time in order to capture its movement, relative to the image coordinates.

Regular tracking can be summed up as following one or multiple points in the image, while planar tracking is used to track a surface and its perspective.
Both are dedicated to that point or surface, and will only work on that specific part of the frame. If you attempt to use tracking data that hasn't been done specifically on the same area of the frame where you intend to use it, you expose yourself to a lot of troubles, as the movement is likely different.

For an actual tracking of the camera itself, for which you can then use a 3D space to place many objects accurately and get their precise movement, a third process is necessary, which is called camera tracking.

​Tracking (camera)

Operation of recovering digitally the motion of the camera that captured a shot and create a virtual camera that will match as close as possible to the real one.
It is an advanced 3D technique, usually done by a specialized department other than compositing (often called Matchmove) and only done when truly needed due to the complex and time-consuming nature of it.

Some of the real camera characteristics are crucial to be able to do this process successfully, such as the sensor size, the focal length used, a map of the distortion applied by the lens, an accurate scale of the real objects being shot as well as some 3D geometry to reference the position in the 3D universe.
The process is split into two different tasks, the first one being the tracking itself, meaning following points in the image and finding out where that same point will be in the next or previous image, and then the solving, which, based on the tracked points and the parallax between them, computes the position of the camera and its movement.

⚠️ A lot of senior compositing artists do not master this skill for the good reasons that they don't have access to all of this information, and they don't have a need for it as the CG (virtual) camera is provided to them.
I would therefore strongly advise you to spend time learning this process only if you are very comfortable with regular tracking methods, as you will likely do it less often, and the required material to make a proper one is rarely provided.

​Tracking (planar)

Similar to tracking except that instead of capturing point movements, planar tracking will look at a whole surface and track that.

Please note that it differs from a regular tracking with 4 points, at the corners of a phone screen for example, as planar tracking will also look at the middle of the ​screen since it follows the whole surface. It is therefore not always a good idea to use it if you have reflections for example, since they will move differently than the screen itself, but the planar tracker will still attempt to reconcile what it captures, often ending in a bad track.

​T-stop

T-stop is the unit of the amount of light reaching the sensor after having passed through a lens. Most of the time the lens, via reflection and absorption, will capture a tiny portion of the light ​entering and will not redirect it properly to the sensor.

T-stop is mostly a videography unit, as opposed to F-stop which is enough for photography as it needs a little bit less precision in the light amount rating. They do, however, work in the same logic, with small t/numbers meaning lots of light and a big aperture, and big t/numbers meaning little light and a small aperture.



U



V

​Viewer

The viewer is the node inside Nuke which allows you to see your work and the resulting image coming out of your node tree. On top of being a node itself, it has a whole window to show you the image alongside lots of options to modify the image that you see instead of having to modify the actual image written on disk, for example to quickly change the exposure to check your work more easily in the shadows or highlights.



W

​White point

The white point has two different meanings:

- In digital color theory, it is literally the point at which a pixel is perfectly white, meaning it has a 1 value in each channel.

​- In an image, we refer to the white point as the brightest area in the frame, usually the source of a light if it is seen directly from the camera (the sun for example). It is important to take a moment to analyze its brightness and hue as any element you might add into the frame will have to look like it receives the same light in order to appear like it belongs in the scene.



X



Y



Z


A

Additive (synthèse)

La synthèse de couleur additive est un modèle qui décrit le comportement de la couleur lorsque différentes lumières se combinent. Avec de la lumière, lorsque plusieurs couleurs se mélangent, le résultat de ce mélange est toujours plus lumineux et tend vers le blanc. La plupart du temps, nous considérerons les trois couleurs primitives (principales) comme étant le Rouge, le Vert et le Bleu. Le mélange de deux de ces trois primitives résulte en des couleurs secondaires, le jaune, le cyan et le magenta. La synthèse de couleur opposée est appelée soustractive, et explique le comportement de la peinture par exemple, où les couleurs se mélangent pour donner un résultat plus foncé et qui tend vers le noir.

​Alpha

L'alpha est un canal (channel) qui sert à décrire l'opacité d'une image. Les trois principaux canaux Rouge, Vert et Bleu forment la couleur de l'image, et l'alpha définit quelle partie de cette image doit être opaque, et donc obscurcir l'arrière-plan, et quelle partie doit être transparente. L'alpha est presque toujours 'lié' à la couleur grâce aux opérations de Premult  et Unpremult au besoin pour former une image cohérente. 

Arrière-plan

L'arrière-plan (background en anglais) est la partie d'une image qui était le plus loin de la caméra lorsque l'image a été capturée. En suivant cette logique, il est l'élément le plus éloigné de votre résultat final en compositing, en haut de votre arbre de nœuds (node tree en anglais), à la verticale du nœud Write final, et ce chemin vertical constitue le tronc de l'arbre de nœuds, aussi appelé B-pipe en anglais.

​Aspect ratio (rapport de forme)

Le rapport de forme, presque toujours appelé de l'anglais aspect ratio, peut décrire deux caractéristiques distinctes selon le contexte:

- c'est tout simplement la forme d'une image. Une image carrée a un rapport de forme 1:1, qui exprime une unité de largeur par une unité de hauteur, alors que d'autres images peuvent avoir un rapport de forme de 16:9 (prononcez seize neuvièmes) par exemple.

- le rapport de forme peut être spécifique aux pixels plutôt qu'à l'image, et décrit donc le rapport de forme de pixel, c'est-à-dire la forme de chaque pixel dans une image. La plupart des pixels sont carrés, avec un rapport de forme de pixel de 1:1, puisqu'ils ont été filmés avec des objectifs sphériques, alors que d'autres images sont filmées avec des objectifs anamorphiques, qui nécessitent ensuite une opération où les pixels prendront une forme rectangulaire, de ratio 2:1 par exemple.

Il est important de noter que le rapport de forme de pixel et le rapport de forme de l'image sont parfaitement indépendants. Malgré des normes définies par l'industrie, l'un n'oblige pas l'autre d'une quelconque manière.

Avant-plan

Foreground en anglais. Partie de l'image qui se trouve le plus proche de la caméra. D'après la même logique, il se doit d'être la branche la plus proche de votre Viewer dans un script Nuke, la branche la plus basse dans votre arbre de nœuds, ajoutée depuis le côté sur votre B-pipe.



B

​B-pipe (tronc de script)

Le B-pipe est un anglicisme qui indique le tronc de votre arbre de nœuds, la branche principale de votre script. Elle est parfaitement verticale et part de la plate, tout en haut de l'arbre, jusqu'au nœud Write final tout en bas du script. 

Ce nom, B-pipe, vient du faire que la bonne pratique dans un script est de garder l'input B de chaque nœud Merge parfaitement vertical, qui crée une ligne verticale directement depuis la plate vers le nœud Write final.


​​Bokeh

Le bokeh est un élément caractéristique d'une image capturée avec une profondeur de champ assez petite, et avec une lumière vive en face du capteur et hors de cette profondeur de champ (donc floutée). Lorsqu'elles sont hors de la profondeur de champ, les lumières ont tendance à "grignoter" l'image autour d'elles et grandir en taille comparées à ce qui les entoure, et prennent une forme circulaire ou polygonale, déterminée par le nombre de lames qui forment le diaphragme. Plus la profondeur de champ est petite, plus le bokeh est grand.

​Branche

Une branche est une petite partie du script, ou arbre de nœuds, qui se rajoute au tronc (B-pipe). Elle représente souvent un élément indépendant comme un personnage, une fumée ou bien une explosion seule, que vous viendrez ensuite mélanger (merger) avec le reste de la scène.



C

Cadre

Le cadre, en anglais "frame", désigne principalement ce qui est visible sur votre image. En compositing nous avons la possibilité d'avoir des parties d'images qui ne sont pas visibles lors du résultat final, ces parties sont désignées par le terme "overscan" (comprendre maladroitement "au-delà du cadre").

L'expression "cadrer son sujet" rentre bien dans cette définition, puisqu'on va faire attention à ce que le sujet soit à la bonne position pour notre composition finale.

⚠️Notez qu'on utilise souvent le terme anglais "frame" pour désigner un numéro d'image également. Puisque nous ne travaillons pas en vidéo mais bien en séquence d'images, chaque image à sont propre numéro qui incrémente dans l'ordre chronologique, et donc toutes discussions autour d'un moment précis se fera à l'aide du numéro d'image, et même en français on a tendance à simplement dire "à la frame 1030" par exemple.

​Canal (channel)

Un canal est un composant de pixel qui contient une valeur numérique spécifique, une information spécifique. La plupart du temps, les canaux représentent les couleurs rouge, vert et bleu ou bien l'alpha, mais un canal peut contenir n'importe quoi, tant que ça se limite à une seule valeur numérique par pixel. Lorsque quatre canaux sont combinés dans Nuke, ils représentent une couche (layer en anglais), la principale étant la couche rgba, qui est appelée quelques fois la partie principale d'un fichier exr.

Capteur (caméra)

Élément de la caméra qui capture la lumière et la convertit en signal digital. Le capteur est l'élément spécifique qui crée une image à partir de la lumière.

Des caractéristiques importantes d'un capteur sont sa taille (particulièrement pour le tracking de caméra et la profondeur de champ), sa plage de sensibilité (ISO) et sa résolution.

CG

CG est une abréviation du terme anglais Computer Graphics, qui désigne des éléments entièrement créés par ordinateur (monstres, explosions, etc).

En compositing, on parle de CG pour les éléments créés par d'autres départements comme Lighting, FX ou animation par exemple, n'importe quoi qui ne provient pas d'une vraie caméra ou bien qui n'a pas été créé en compositing.

Pour les éléments 2D que nous ajoutons souvent en compositing, on n'utilise pas le terme CG puisqu'ils ont été filmés par une vraie caméra, et nous les travaillons donc de manière différente.

​Compression

La compression est un moyen de réduire la taille d'un fichier en faisant des compromis sur sa qualité. Par exemple, plutôt que de stocker la valeur 3.14159265, on pourrait choisir d'arrondir à la troisième décimale, en écrivant seulement 3.142. On perdra donc un peu de précision puisqu'il nous manquera des décimales, mais cela prend moins de place pour stocker la valeur sur le disque. Ce petit gain multiplié par des millions et des millions de valeurs devient vite significatif.

Il y a plein d'algorithmes de compression différents qui existent et qui sont testés chaque année, qu'ils soient spécifiques aux images, à la vidéo, l'audio, etc, et varient beaucoup entre des compressions très intenses qui perdent beaucoup de qualité dans le but d'avoir un fichier de moins de 1% de la taille de l'original, ou au contraire des algorithmes appelés en anglais "loss-less", autrement dit qui perdent peu, qui permettent de retenir beaucoup de qualité et de précision, mais qui diminuent la taille d'un fichier de manière beaucoup plus subtile.

Dans le cas du compositing, s'il n'y avait que deux algorithmes à retenir, ce serait ZIP1, qui est loss-less, le plus commun de nos jours pour les VFX et qui permet de ne pas perdre de qualité, et DWAA, dont l'objectif est de réduire de façon plus drastique la taille des images, d'environ 75%, avec le compromis de perdre un petit peu de qualité. DWAA a cependant été inventé dans cet objectif précis pour les images du cinéma et est donc très efficient, de sorte que la perte de qualité par défaut est invisible à l’œil nu. Cet algorithme est d'une telle efficience que de plus en plus de studios le considèrent sérieusement comme remplaçant à ZIP1 dans plusieurs applications, et c'est aussi celui-ci que j'ai choisi pour la distribution de mes exercices.

Couche (de l'anglais 'layer')

Peut avoir deux définitions selon le contexte:

- Une couche peut être un élément dans votre script qui est ajouté par-dessus ou par-dessous un autre élément, autrement appelé une branche dans le cas d'un logiciel nodal (par exemple une fumée qu'on ajoute sur un toit).

- Une couche peut être une image contenue dans un fichier exr à plusieurs parties ou bien même directement dans votre script Nuke, par exemple les couches RGBA et Normal. Chaque couche peut contenir jusqu'à 4 canaux.



D

​Despill

Le despill est une opération qui consiste à enlever la couleur verte ou bleue qui vient des fonds verts ou bleus et qui se réfléchit sur ce que vous filmez, pour la remplacer par la couleur qui devrait être là par rapport à l'arrière-plan que vous voulez mettre à la place. D'où le nom, de-spill, qui en anglais signifie "enlever la tache".

Pour remplacer un arrière-plan, il est commun d'utiliser des fonds verts ou bleus derrière des acteurs et actrices pour les isoler facilement de leur environnement, mais l'inconvénient est que la lumière, rebondissant partout avec plus ou moins d'intensité, vient projeter sur nos acteurs et actrices des couleurs vertes ou bleues qui ne devraient pas exister dans le film.
L'opération de despill intervient donc là-dessus, en enlevant ces couleurs dont on ne veut pas, et en les remplaçant par des couleurs plus proches de leurs teints de peau, vêtements, etc.

⚠️ Il est très important de noter que le despill est souvent négligé, voire ignoré. En réalité, il nécessite plus d'attention encore que le keying, et devrait même être commencé avant le premier essai de keying, pour avoir un résultat de couleur décent dès le début. Beaucoup d'artistes confondent les deux procédés et essaient de corriger des problèmes de despill lors du keying, en oubliant que le keying ne s'occupe que de l'opacité d'un sujet, alors que seul le despill peut corriger des soucis de couleurs.

​Diaphragme

Le diaphragme d'un objectif est l'élément responsable du contrôle de l'ouverture de cet objectif. Il se compose de plusieurs lames qui tournent légèrement chacune pour créer un trou plus ou moins gros.

Le nombre de lames va influencer l'aspect du bokeh créé dans nos images, puisque sa forme suivra celle du diaphragme, c'est-à-dire un polygone s'il y a peu de lames, ou bien un cercle si le nombre de lames est suffisamment grand.

​Distorsion de lentille

Distorsion de la lumière à l'intérieur d'un objectif à cause des différents éléments de verre qui le composent.

Une distorsion de lentille peut être très prononcée ou bien imperceptible dépendamment de l'objectif utilisé, avec une "règle" générale qui observe que les objectifs grand-angles tendent à avoir une distorsion plus prononcée que les objectifs à plus longue focale, simplement due aux contraintes existantes pour capturer un angle de vue très large.

Il s'agit d'un effet secondaire, il n'est pas intentionnel et représente un compromis que les fabricants d'objectifs font lors du design.

​Downstream (comprendre "aval")

Downstream est un terme anglais qui se traduit par aval. Il peut décrire un département (compositing, lighting, layout, etc) ou bien une partie de script. Dans les deux cas, il fait une comparaison par rapport à une référence:

- Dans le cas d'un département, on parle des départements en aval pour ceux qui se situent après le département en question, dont le travail dépend de celui-ci.
Par exemple, lighting est en aval de layout, puisqu'ils ne peuvent pas travailler sans que les scènes soient d'abord passées par layout. Textures est en aval de modelling, car évidemment, pas de texture sans modèle.

- Dans le cas d'un arbre de nœuds, c'est le même principe. Les nœuds en aval d'un certain nœud sont ceux qui dépendent de celui-ci, ceux qui sont en dessous (si vous avez bien construit votre script).



E

Espace de couleurs (colorspace)

Un espace de couleurs peut être résumé simplement à une gamme ou une quantité de couleurs possibles dans une même image. Il contient des couleurs primaires spécifiques (pour nous Rouge, Vert et Bleu). Vous avez peut-être déjà vu des noms comme rec.709, sRGB ou bien Log par exemple.

Pour être plus précis, nous devrions parler de gamut de couleurs, ainsi que de gamma de couleurs, plutôt que de tout simplifier au terme 'espace de couleurs', mais ces notions sont très théoriques et avancées, donc je vous recommande d'en rester à ce niveau tant que vous n'êtes pas confortables pour aller plus loin.

Exposition

Quantité de lumière qui arrive jusqu'au capteur de caméra. Lorsque vous ajustez votre ouverture, l'ISO ou bien la vitesse d'obturateur par exemple, vous changez l'exposition de votre image, la luminosité de votre image. Bien sûr, certaines parties de l'image peuvent toujours être foncées s'il y a des ombres, ici on parle seulement d'exposition générale.

On dit souvent d'exposer pour notre sujet, c'est-à-dire de régler la quantité de lumière de sorte que notre sujet soit à la bonne luminosité.



F

​F-stop

Unité qui exprime la quantité de lumière qui entre dans un objectif de caméra au travers du diaphragme, et est donc contrôlée par l'ouverture. Elle s'écrit f/nombre, où des nombres grands comme f/22 par exemple représentent une petite ouverture et donc une petite quantité de lumière à l'intérieur de l'objectif, alors que des nombres plus petits tels que f/1.8 signifient une grande ouverture et une grande quantité de lumière qui passe au travers du diaphragme.

Il est bon de noter que la plupart du temps, un objectif va capturer encore un peu de cette lumière au travers de phénomènes optiques d'absorption et de réflexion, et que donc le f-stop ne représente pas exactement la quantité de lumière qui atteint le capteur (voir t-stop).


​Focale (distance focale)

Distance entre le centre optique de l'objectif et le capteur de la caméra. Il détermine principalement l'angle de vue capturé par l'objectif. Un objectif grand angle, d'une focale de 10mm par exemple, aura un champ de vision très large, tandis qu'un objectif téléphoto de focale de 300mm capturera seulement un champ de vision très restreint.

Un effet secondaire du changement de distance focale est un changement de perspective. Une longue focale vous forcera à vous éloigner du sujet et enlèvera donc la perception de distance entre différents éléments, ils apparaîtront tous comme les uns juste derrière les autres, alors qu'une focale courte (donc un objectif à plus grand angle de vue) vous invitera à vous rapprocher du sujet, et tendra donc à exagérer la perception de distance, en faisant apparaître votre nez plus gros qu'il ne l'est vraiment par exemple (je parle par expérience...).

Un second effet secondaire, qui n'est pas forcément tout le temps vrai, mais plutôt une généralité, est la quantité de distorsion que l'objectif applique à une image (voir Distorsion de lentille). Les objectifs grand-angles ont tendance à courber des lignes qui sont droites dans votre scène aux bords de l'image, alors qu'un objectif avec une focale plus longue sera plus à même de conserver les lignes droites correctement. Ceci est une sorte de difficulté de conception, et certains fabricants arrivent malgré tout à corriger ce souci sur des objectifs grand-angles très haut de gamme.

​Footage (comprendre "séquence")

Footage en anglais désigne une séquence d'images,ou une vidéo. Elle peut être la séquence principale qui contient vos acteurs et actrices, ou bien de simples éléments additionnels qui ont été filmés tels que des boules de chrome, HDRIs, du feu ou bien de la fumée sur fond noir par exemple.

​Fréquence d'image

"Frame rate" en anglais. Vitesse à laquelle les images sont affichées l'une après l'autre pour donner l'illusion de mouvement. Le standard pour le cinéma est à 24ips (images par seconde, ou bien fps, frames per second, en anglais), alors que des vidéos internet tendent à être plutôt autour de 30ips ou bien un facteur de 30 (60ips, 120ips...). Le choix des images par secondes est à la fois un choix artistique et technique, puisqu'il aura des conséquences sur le flou de mouvement et l'apparence des lumières par exemple.

​FX

FX est le nom donné au département VFX responsable de toutes sortes de simulations. Cela peut consister en une simulation de grands volumes d'eau autour d'un bateau, du feu ou de la fumée ou bien même une maison qui se fait détruire en pleine tornade.

En compositing on fait souvent un petit raccourci et parlons "des fx" pour parler du résultat de leur travail, c'est-à-dire les images rendues par ce département.
Exemple : "Tu viens de recevoir des nouveaux fx, regarde-les et dis-moi si tout fonctionne bien avec stp"



G

Gain

Paramètre permettant de manipuler le point blanc d'une image, c'est-à-dire les pixels qui ont une valeur de 1 dans chaque canal. Il agit comme un multiplicateur, dans le sens qu'il n'influence pas du tout le point noir (puisque 0 multiplié par quoi que ce soit donne toujours 0).

⚠️ Attention à ne pas penser qu'il s'agit d'un paramètre binaire, qui influence un ton d'image complètement ou pas du tout. Bien qu'il soit le plus efficace sur les tons très lumineux d'une image, il influence aussi les tons moyens et dans une moindre mesure, les tons foncés. Seulement le noir parfait n'est pas influencé du tout, mais n'importe quelle autre valeur se retrouvera altérée au moins en partie.

​Gamma

Le gamma est, au sens strict du terme, une fonction de transfert servant à la conversion d'une image entre certains espaces de couleurs, linéaires et non linéaires.

Cependant, nous l'utilisons de manière créative assez fréquemment au sein du nœud Grade, et il est utilisé pour influencer en priorité les tons moyens d'une image. Toutes les valeurs à l'exception de 0 et de 1 se retrouveront altérées, bien que les tons moyens recevront la plus grande modification.

⚠️ De par la nature de la fonction gamma, lorsque vous augmentez sa valeur pour rendre les tons moyens plus lumineux, si les valeurs de vos tons clairs dépassent 1 et sont ce qu'on appelle des "super-claires", elles se retrouveront diminuées par ce changement de gamma, alors qu'on pourrait s'attendre à ce qu'elles augmentent aussi. Ne soyez donc pas surpris de voir vos points les plus lumineux dans une image devenir plus sombres, alors que vous augmentez le gamma.

​Glow

Le glow, traduit en bon français "brillance" ou "éclat", peut avoir deux significations légèrement différentes selon sa cause:

- Un glow atmosphérique est causé par la diffusion de la lumière depuis une source lumineuse précise, à cause d'un certain niveau d'humidité ou bien de la présence de beaucoup de poussière dans l'air par exemple. Cette diffusion de lumière est donc visible de l’œil humain et dépend de l'environnement autour de vous.

- Un glow optique est causé par la diffusion et la réflexion de la lumière au sein d'un objectif de caméra, et résulte en un glow uniforme autour d'une source lumineuse pointée directement vers l'objectif. La lumière aura alors tendance à "couler" autour de la source lumineuse dans l'image, et sera visible principalement dans les zones sombres. Ce glow n'est donc pas la conséquence de l'environnement, mais bien de la conception d'un objectif, et n'est pas visible par l’œil humain.

​Grade

Grade est un nœud de Nuke qui vous permet de modifier les couleurs d'une image de plusieurs manières différentes et complémentaires, grâce aux paramètres de gain, gamma ou lift par exemple.

"Grader", bien que ce soit un terme franglais un peu louche, désigne l'action de changer les couleurs d'une image.



H




I

Image (digitale)

Une image digitale est une grille de pixels (souvent en millions), chacun avec sa propre information de couleur et opacité, encapsulée dans une couche (par défaut et assumé comme étant la couche RVBA pour Rouge, Vert, Bleu, Alpha), et écrite à l'intérieur d'un fichier qui peut avoir tout un tas d'extensions différentes, c'est-à-dire de façons d'écrire cette image sur le disque comme par exemple des fichiers jpeg, png ou bien exr.

Les couleurs d'une image sont écrites dans un espace de couleur bien spécifique. Il est rarement inscrit dans les métadonnées, mais n'est pas interchangeable sans opération de transfert spécifique, donc vous devez savoir dans quel espace de couleur est votre image pour pouvoir travailler dessus correctement.

​ISO (sensibilité de capteur)

La sensibilité d'un capteur de caméra est exprimée en ISO (400 ISO, 3200 ISO...) et détermine la quantité d'amplification électrique qu'un pixel reçoit lorsqu'un rayon de lumière vient le toucher. La sensibilité est donc une manière "artificielle" d'augmenter la luminosité d'une image, car elle ne fournit pas plus de lumière au capteur, elle ne fait qu'augmenter son signal électrique.

Ce choix de sensibilité peut s'avérer très utile lors de scènes de nuit par exemple, là où les lumières naturelles et de plateau ne suffisent pas à rendre une image suffisamment lumineuse, mais cette option devrait rester comme un dernier recours car elle a un défaut principal, elle augmente aussi la quantité de bruit numérique de votre image (voir bruit numérique et rapport signal-sur-bruit).

Sur des caméras d'excellente qualité, le bruit numérique reste subtil sur la majorité de la plage ISO, et reste correct jusqu'à atteindre environ 6400 ISO voir plus, cependant sur la majorité des caméras, ces paramètres sont déjà trop haut pour pouvoir maintenir un bruit suffisamment discret, et il vaut mieux rester en dessus.

Bien évidemment, la plage ISO est spécifique à chaque caméra et vous devez lire le manuel pour connaître la sensibilité native, la règle d'or étant de ne l'augmenter seulement lorsque toutes vos autres options ne sont pas suffisantes (voir ouverture et vitesse d'obturateur).​​​



J



K

Kernel (comprendre "noyau")

Le kernel ou noyau en bon français, représente en compositing la "texture" d'un objectif de caméra, à cause de poussières ou petits défauts par exemple. Bien que la plupart des objectifs sont maintenus en parfaite condition lors d'un tournage, il réside toujours de très légers défauts.

Alors que ces imperfections sont invisibles dans la plupart des cas, ils peuvent apparaître lorsqu'un bokeh se crée dans une image avec une petite profondeur de champ, et la texture de ce bokeh, les petites nuances de luminosité en son centre sont directement le résultat de ces imperfections.

Lorsque nous intégrons des images CG en compositing, il est d'usage de choisir une texture de lentille spécifique lorsque l'on paramètre la profondeur de champ, pour ajouter ce petit niveau de détail supplémentaire qui fait la richesse des images filmées.

​Key-to-fill ratio

Le ratio key-to-fill désigne le contraste entre la lumière principale et la lumière d'ambiance. Augmenter le ratio veut dire augmenter le contraste entre ces deux lumières, soit en augmentant la lumière principale (key light en anglais) ou bien en diminuant la lumière d'ambiance (fill light).

Je n'ai malheureusement pas trouvé d'équivalence en termes purement français.

​Key frame (image clé)

Une image clé, très largement appelée en anglais key frame, désigne une image qui porte une importance particulière, que ce soit en termes de composition ou bien d'une pose d'animation par exemple, où chaque placement d'élément est défini intentionnellement à la main, plutôt que simplement interpolé automatiquement.

​Keying

Procédé par lequel se fait la création d'un masque d'opacité déduit directement des informations de l'image source, souvent stocké dans le canal alpha.

Le keying est le plus souvent effectué en utilisant comme critère l'information de luminance, de saturation, ou bien de teinte verte ou bleue d'une image.

⚠️ Veuillez noter que dans le cas d'un fond vert ou bleu, le keying n'est qu'une partie du procédé complet, puisqu'il ne gère que la manipulation de l'opacité. Pour un travail complet, le despill est primordial, et je le placerais même comme plus important que le keying.



L

​Lift

Lift est un paramètre du nœud Grade qui nous sert à contrôler le point noir d'une image, c'est-à-dire les pixels ayant une valeur de 0 dans chaque canal. Il fonctionne par rotation autour de la valeur 1, c'est-à-dire qu'il n'affecte pas du tout le point blanc. Cependant, de la même manière que le gain et le gamma, il ne se limite pas au point noir ou bien aux zones très sombres, il affecte aussi les pixels plus clairs dans une moindre mesure.

Linéaire

Type spécifique d'espace de couleurs qui représente les tons et teintes de manière égale, quelles qu'elles soient. Un pixel d'une valeur deux fois plus grande qu'un autre sera représenté deux fois plus lumineux.

Un autre terme souvent utilisé comme synonyme est raw, et les deux représentent l'opposé d'espaces de couleurs de type non-linéaire (par exemple logarithmique).

Luminosité (brightness en anglais)

La luminosité d'un pixel ou d'une image est littéralement la quantité de lumière du pixel ou de l'image, sans prendre compte de sa teinte.

Lorsque vous recevez des notes d'un.e superviseur.e ou lors d'une simple discussion entre collègues, il est commun (et important) de faire une distinction claire entre la luminosité et la teinte. Vous serez appelé.e.s à, par exemple, augmenter la luminosité d'une image sans en changer sa teinte, ou bien à changer la teinte sans affecter la luminosité.



M

Merge

Merge est un nœud Nuke qui permet de combiner plusieurs images ensemble, à l'aide de différentes opérations au choix tel que over, multiply, plus, etc.

"Merger" des éléments signifie simplement de les combiner ensemble pour obtenir une image, l'un part dessus l'autre, ou bien en dessus, additionné ou multiplié, etc.

Mise au point

Procédé qui consiste à choisir quelle partie de l'image sera nette. À moins d'avoir une petite ouverture (c'est-à-dire un f-stop élevé comme f/22 par exemple), il est probable qu'une partie de l'image tombe hors de la profondeur de champ et se retrouve floue. Par conséquent, vous devez faire une mise au point pour ajuster la distance focale afin de rendre votre sujet net. Si votre sujet bouge en profondeur lorsque vous enregistrez, il faudra alors animer la focale pour suivre le sujet en profondeur tout au long du plan, c'est ce qu'on appelle communément en anglais un "focus rack".

​Multi-partie EXR

Un fichier exr multi-partie contient plusieurs couches à l'intérieur, c'est-à-dire plusieurs images indépendantes les unes des autres, à l'opposé d'un fichier exr simple partie, qui ne contient que la couche RGBA.



N

Node (nœud)

Un nœud, ou node en anglais, est un outil dans Nuke qui permet de lire, modifier ou écrire une image presque sans limite. Il y a de nombreux nœuds disponibles, chacun avec son utilité propre, et allant des plus simples comme le Blur (flou) qui sert à flouter une image jusqu'à l'IBKGizmo qui est un outil complexe d'extraction de fond vert ou bleu.

C'est l'assemblage de multiples nœuds ensemble qui fait toute la puissance de Nuke et vous permettra, à partir des mêmes nœuds, d'avoir des possibilités bien différentes selon les besoins, et lorsque vous respectez certaines règles de bon sens pour travailler dans Nuke, cet assemblage de nœuds prendra la forme d'un arbre, avec un tronc principal et des branches qui viennent se rattacher.

​Nodes tree (arbre de nœuds)

Votre arbre de nœuds est la totalité de l'assemblage de nœuds Nuke dans un script pour créer l'image finale. Un assemblage bien réalisé prendra souvent littéralement la forme d'un arbre avec le tronc principal (aussi appelé B-pipe) et de multiples branches (aussi appelées grossièrement "layers" par certains) qui se connectent au tronc. Ces branches devraient toujours aller de haut en bas, en partant de l'arrière-plan jusqu'à l'avant-plan.

​Node graph

Le node graph est l'interface graphique de Nuke qui affiche et permet de manipuler tous les nœuds d'un script, ainsi que d'ouvrir leurs propriétés ou bien d'en créer de nouveaux. C'est l'un des trois onglets fondamentaux de Nuke et avec lequel vous allez travailler constamment (voir Viewer et Properties pour les deux autres).

​Noise (bruit)

Bruit numérique:
Imperfection de l'image causée par la perturbation du signal électrique sur le capteur d'une caméra. Il prend la forme de paquets de quelques pixels regroupés en formes plus ou moins circulaires et assez aléatoires, changeant légèrement d'intensité et de couleurs à chaque image.

Le bruit numérique est naturellement plus visible dans les zones sombres d'une image, simplement car les zones lumineuses le 'cachent' de notre œil. Notre œil étant très sensible aux basses lumières et beaucoup moins apte à discerner des détails dans les hautes lumières, les petites variations du bruit deviennent imperceptibles dès qu'il y a suffisamment de lumière.

En compositing, nous faisons souvent un raccourci et parlons de grain plutôt que de bruit. Techniquement le grain réfère à un motif similaire au bruit numérique, seulement la cause revient aux pellicules argentiques et aux petits cristaux qui les composent. Ils ont donc chacun une définition et une cause bien distincte à retenir.


Nœud Nuke:
Le nœud Noise sert à créer un motif de paquets de pixels aléatoires, où vous pouvez ajuster divers caractéristiques du motif telles que la taille, fréquence, etc. Il est souvent utilisé pour ajouter de la diversité aléatoire, qu'elle soit spatiale ou temporelle, dans un autre élément.

Exemple : "Ajoute un noise dans ce masque pour casser les bords"



O

​Objectif (anamorphique)

Un objectif anamorphique, à l'opposé d'un objectif sphérique, tord la lumière verticalement et horizontalement dans des proportions différentes. La lumière reçoit une déformation plus grande horizontalement, souvent d'un facteur de 1.3 ou 1.5 fois la déformation verticale.

Ce que ça veut dire concrètement, c'est qu'avec ce type d'objectif on peut capturer une scène très large avec une simple image carrée. Cette image directement tirée du capteur à de mauvaises proportions puisqu'elle apparaît écrasée horizontalement, mais avec une simple opération appelée "de-squeeze", on vient corriger ces proportions, et l'image n'est désormais plus carrée, mais trouve son aspect ratio correct, et se retrouve donc bien plus allongée. Ce de-squeeze s'opère en changeant l'aspect ratio des pixels, au lieu de les avoir carrés comme c'est la norme, on les étire individuellement 1.3 ou 1.5 fois plus large.

​Objectif (sphérique)

Un objectif sphérique est un type d'objectif très commun qui déforme la lumière de manière homogène, et projette sur le capteur une image aux bonnes proportions, à l'opposé d'un objectif anamorphique.

​Objectif (téléphoto)

Téléphoto est simplement un descriptif d'un objectif à longue distance focale, qui a donc par nature un angle de vue relativement réduit, mais qui permet de capturer des sujets à longue distance.

Exemple, un objectif 200mm

Onglet

Partie sélectionnable d'un panneau Nuke, qui contient un affichage spécifique tel que le Viewer ou le Node graph par exemple.

​Opacité

L'opacité d'un objet est sa capacité à cacher ce qu'il y a derrière lui.

En compositing, on utilise un canal différent des habituels Rouge, Vert et Bleu pour stocker l'information d'opacité d'un pixel. Il s'agit du canal alpha, souvent nommé simplement alpha.

Lorsque mélangés ensemble, plusieurs éléments avec un alpha vont avoir une certaine opacité là où l'alpha n'est pas parfaitement noir, voir être totalement opaques lorsque l'alpha est parfaitement blanc, et vont donc cacher les éléments derrière eux. Cependant, pour un alpha noir, l'élément de l'avant-plan va toujours apparaître bien sûr, mais n'ayant aucune opacité, il ne cache pas l'arrière-plan et le résultat sera simplement l'addition des deux éléments, identique à l'opération "plus"du Merge.

Ouverture

L'ouverture d'un objectif de caméra ou d'appareil photo est la taille du trou créé par le diaphragme. Elle est décrite en unité F-stop ou T-stop et peut être ajustée sur la grande majorité des objectifs. Plus le trou est grand, plus la valeur de F-stop (ou T-stop) est petite, et plus la lumière entre pour atteindre le capteur.
Un changement d'ouverture provoque aussi, comme effet secondaire, un changement de la profondeur de champ. Pour l'ouverture est grande, plus la profondeur de champ est petite, resserrée sur le sujet.
À l'inverse, plus l'ouverture est petite, plus la valeur de F-stop (ou T-stop) est grande, et moins la lumière pourra atteindre le capteur, avec comme résultat de produire une image plus foncée et avec une profondeur de champ plus grande.

​Over (Opération de Merge)

L'opération "Over" du nœud Merge peut être déconstruite grossièrement en une opération "stencil" suivie d'une opération "plus".

"Stencil" utilise l'alpha de l'avant-plan (connexion A) pour "cacher" l'arrière-plan (connexion B), c'est-à-dire le rendre noir. L'opération "plus" vient ensuite simplement ajouter l'avant-plan et l'arrière-plan, sans prendre en compte l'alpha de l'un ou l'autre.

En partant du principe que vous avez correctement prémultiplié l'avant-plan, le résultat final donnera l'illusion que l'avant-plan est bien "devant" l'arrière-plan, bien qu'il n'y ait aucune profondeur dans une image 2D.

En réalité, l'opération mathématique derrière cette opération est un peu différente puisqu'il s'agit d'une multiplication inverse de l'alpha plutôt que d'un stencil, mais si c'est un peu trop complexe à se représenter pour vous, mon analogie marche tout de même bien.



P

Pane (panneau)

Panneau détachable et pouvant être redimensionné à l'intérieur de Nuke. Il peut être utilisé pour créer une interface qui correspond exactement à vos besoins personnels. Un panneau ne peut afficher qu'un onglet (tab) à la fois, mais peut contenir plusieurs onglets. Il peut aussi être dans une fenêtre complètement séparée de Nuke si besoin.

L'assemblage de tous les panneaux dans Nuke s'appelle un espace de travail (workspace) et peut être sauvegardé pour le retrouver facilement plus tard.

​Pixel

Un pixel est une sorte de petit rectangle à l'intérieur d'une image, et il contient une information de couleur qui lui est propre. Il peut être carré ou rectangle au besoin (voir aspect ratio) et lorsque des milliers d'entre eux sont affichés en plusieurs lignes et colonnes, alors ils peuvent représenter une image. Plus il y a de pixels et plus on dit que la résolution de l'image est grande.

Les pixels d'une image peuvent être considérés comme virtuels, dans le sens qu'ils n'existent que dans une dimension numérique, dans l'ordinateur, mais il y a aussi des pixels physiques, qui sont identiques dans le principe de fonctionnement, mais qui eux, émettent réellement de la lumière et composent votre écran.

​Plate

La plate (pas d'équivalent connu en français pour le moment) désigne les images qui ont été filmées par une caméra, et souvent implique spécifiquement celles qui serviront de base pour le compositing, c'est-à-dire celles qui contiennent les acteurs et actrices. Tout notre travail est basé dessus et on retrouve donc naturellement la plate tout en haut de notre script Nuke, comme tronc principal dans notre arbre de nœuds.

Exemple : Les acteurs et actrices devant un fond vert, un plan drone avec paysage à étendre, etc.

Point blanc

Le point blanc d'une image peut avoir deux significations différentes:

- En théorie de couleur digitale, le  point blanc est simplement le niveau d'un pixel parfaitement blanc, qui a donc une valeur de 1 dans chaque canal.

- Dans une image, on parle du point blanc pour désigner le point le plus clair de cette image, habituellement une source de lumière présente ou bien un reflet très brillant. Il est particulièrement important de l'analyser en termes de luminosité et de teinte, car d'autres éléments que vous ajoutez dans l'image auront leur teinte propre, mais probablement une luminosité similaire puisqu'ils sont censés recevoir la même lumière.

Point noir

Le point noir d'une image peut avoir deux significations différentes:

- En théorie de couleur digitale, le point noir est simplement le niveau d'un pixel parfaitement noir, qui a donc une valeur de 0 dans chaque canal.

- Dans une image, on parle du point noir pour désigner le point le plus sombre dans cette image, habituellement une petite zone cachée dans les ombres. Il est particulièrement important de l'analyser en terme de luminosité et de teinte, car changer le point noir d'une image peut avoir un impact significatif sur d'autres zones de l'image, même plus claires, et potentiellement vous forcer à recommencer votre correction de couleur tout entière.

​Primaires

Couleurs de base mélangées pour créer toutes les autres teintes possibles à l'intérieur d'un certain espace de couleurs.

Dans les VFX les couleurs primaires sont toujours Rouge, Vert et Bleu. Toutes les autres couleurs comme le jaune, rose ou brun par exemple, ne sont que des mélanges de rouge, vert et bleu dans différentes quantités.

⚠️ Notez que pour les éditeurs et coloristes, la primaire est un terme plutôt utilisé pour parler de la première étape de correction de couleur, globale, appliquée à un plan.


Profondeur de champ

La profondeur de champ est une sorte d'effet secondaire de l'ouverture d'un objectif dans une caméra. Elle peut être toute petite, c'est-à-dire que seulement le sujet est net et tout ce qui se trouve devant ou derrière est flou, ou bien au contraire elle peut être très large de sorte que l'image entière soit nette, peu importe leur distance par rapport au sujet.

Puisque c'est une question de distances avant tout, on peut donc en déduire que des objets à différents endroits de l'image seront flous de la même manière tant qu'ils sont à la même distance du sujet par rapport à la caméra.



Q



R

Raw

Vient de l'anglais, signifie "cru", comprendre "non-altéré".

Une image raw est celle écrite directement par la caméra, sans aucune compression ni altération après le capteur.

Un espace de couleur appelé raw signifie qu'il est linéaire, comme c'est le cas avec ACES.

Resolution

Quantité de pixels qui composent une image. Plus cette quantité est grande, plus on dit que la résolution est grande. HD ou 4K par exemple, sont des acronymes décrivant une résolution spécifique. Des noms plus complets pourraient être HD 1080p et 4K 2160p, puisqu'ils spécifient la quantité de lignes de pixels d'une image, c'est-à-dire sa hauteur. Dans ce cas, une image HD contient 1080 pixels de haut et 4K contient 2160 pixels en hauteur.

C'est une bonne pratique d'utiliser des noms complets pour discuter de résolution, car un même acronyme peut correspondre à plusieurs résolutions et rapports de forme (voir aspect ratio).

⚠️​Notez que le "p" à la fin de 4K 2160p ne signifie pas "pixel", mais "progressif". C'est un terme spécifique à la vidéo (voir Méthode de balayage).​



S

Script

Un script Nuke est le fichier de sauvegarde, dans lequel est écrit tout votre travail. On parle aussi souvent de script pour désigner l'ensemble des nœuds à  l'intérieur du Node graph, l'arbre de nœuds.

​Simple-partie EXR

Un fichier EXR simple-partie ne contient qu'une seule couche à l'intérieur (qu'une seule image), la couche RGBA, au contraire d'un fichier EXR multi-partie.



T

Teinte

Teinte, en anglais "Hue".

La teinte est la partie purement "couleur" de la lumière, et donc d'un pixel. Lorsque l'on décrit une image en compositing, on la divise toujours en deux catégories distinctes et indépendantes : la luminosité, c'est à dire la quantité de lumière, et la teinte, de quelle couleur est cette lumière ou objet. Une lumière très lumineuse peut manquer de teinte, être grise, et une lumière faible peut tout à fait avoir une teinte très prononcée.

La teinte désigne donc dans quelle direction la couleur d'un élément tend, vers le rouge, vert, bleu, jaune, magenta, cyan, chaud, froid, etc, peu importe sa luminosité.

⚠️ Lorsque l'on reçoit des notes d'un.e client.e ou superviseur.e, ou bien même simplement lors d'une discussion entre collègues, il est important de faire la distinction entre luminosité et teinte. Se faire demander d'augmenter la luminosité d'une image sous-entend de maintenir la teinte telle qu'elle est, ou bien au contraire, ajuster la teinte (des fois grossièrement appelée température) sous-entend de maintenir la luminosité à son état actuel.

​Tracking

Procédé consistant à suivre une petite partie d'une image au fil du temps pour pouvoir en capturer le mouvement, relatif aux coordonnées de cette image.

Un tracking standard consiste à suivre un ou plusieurs points dans l'image, tandis qu'un tracking de plan permet de suivre le mouvement d'un plan au complet, ainsi que sa perspective.
Ces deux méthodes sont cependant intrinsèquement liées aux points et surfaces choisies et ne marchent que pour ces choix. Si vous essayez d'utiliser le résultat d'un tracking à un autre endroit de l'image que celui choisi pour le tracking, vous vous exposez à beaucoup de complications, puisque le mouvement est probablement différent.

Pour capturer le mouvement de la caméra elle-même, afin de l'utiliser dans un espace 3D et pouvoir y placer plusieurs objets précisément en profondeur, il s'agit d'une troisième méthode, le tracking de caméra.

​Tracking de caméra

Méthode utilisée pour retrouver le mouvement original d'une caméra et le refaire à l'identique en digital, dans un espace 3D.
Il s'agit d'une opération avancée, souvent faite par un département spécialisé dans des studios de VFX (appelé MatchMove), et uniquement utilisé lorsque réellement nécessaire, à cause de sa complexité et du temps nécessaire pour la réaliser.

Certaines caractéristiques de la caméra et de l'objectif sont cruciales pour pouvoir calculer une caméra digitale à l'identique, telles que la taille du capteur, la longueur focale utilisée, une carte de distorsion appliquée par la lentille, ainsi qu'une échelle de taille précise pour être capable de placer tous les éléments 3D dans les bonnes dimensions.
Le procédé est divisé en deux catégories distinctes. La première étape est le tracking en lui-même, et qui consiste à suivre plusieurs points dans l'image, stratégiquement répartis en profondeur dans la scène filmée, et ensuite vient le calcul en lui-même, appelé en anglais "solving", qui s'occupe de calculer la position originale de la caméra à partir des informations fournies et les différents mouvements des points capturés et de leur parallaxe.

⚠️ Beaucoup d'artistes compositing, même seniors, ne maîtrisent pas bien cette compétence pour la simple raison qu'ils n'ont pas forcément accès aux informations nécessaires et qu'un autre département spécialisé leur fournit les caméras dont ils ont vraiment besoin.
Je vous conseille donc vivement de ne passer du temps sur l'apprentissage de ce processus que si vous êtes déjà réellement à l'aise avec les autres méthodes de tracking et le compositing en général, car vous en ferez très peu en milieu professionnel.


​Tracking de plan

Méthode similaire au tracking standard, à l'exception que la capture ne se fait pas à l'aide de points précis, mais d'une surface entière.

⚠️ Veuillez noter qu'il y a une différence majeure comparée à un tracking standard à 4 points, car ce dernier permet d'éviter la confusion avec des reflets d'écran par exemple, puisque qu'un tracking 4 points se concentrera uniquement sur les coins de l'écran, tandis qu'un tracking de plan prendra potentiellement le mouvement des reflets en compte et le résultat se retrouvera faussé.


​T-stop

T-stop est une unité qui décrit la quantité de lumière qui atteint le capteur après être passée au travers de l'objectif. La plupart du temps, un objectif va capturer une petite portion de lumière à cause de certains reflets et absorptions, et ne la redirigera donc pas entièrement sur le capteur.

T-stop est une unité principalement pour de la vidéo, à l'opposé du plus connu F-stop, qui s'avère suffisamment précis pour de la photographie. Ils fonctionnent cependant selon la même logique, avec de petits nombres t/nombre qui indiquent une grande ouverture et quantité de lumière, et l'inverse pour des nombres élevés.



U



V

​Viewer

Viewer est le nœud Nuke qui vous permet de visualiser le résultat de votre travail, l'image qui en découle. En plus d'être un nœud, il a son propre onglet pour vous afficher l'image en tant que telle, ainsi que de multiples options pour pouvoir en modifier l'affichage sans être forcé de modifier l'image en elle-même, telle qu'elle est écrite sur le disque (par exemple pour augmenter temporairement l'exposition et mieux voir dans les zones d'ombre).



W



X



Y



Z



Thank you for the request

 I will add it to the glossary within a few days if it is pertinent.